

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Lac de données
<a name="data-connections"></a>

Vous pouvez l'utiliser AWS Supply Chain pour ingérer vos données stockées dans les sources de données suivantes et extraire les informations de votre chaîne d'approvisionnement. AWS Supply Chain *vous pouvez stocker les informations extraites dans vos compartiments Amazon S3 et utiliser les données pour la planification de la *demande, les *informations*, la planification* des *approvisionnements, la* *visibilité N-Tier*, les *informations sur les ordres de travail* et le développement durable.*
+ **Données sources Amazon S3** : vous pouvez utiliser l'option de flux de source de données Amazon S3 si vous ne disposez pas d'un système ERP ou si vous utilisez un autre outil d'extraction. Vous pouvez extraire les données brutes de votre source de données, mapper les champs de AWS Supply Chain données avec le modèle de données et les télécharger sur Amazon S3 à l'aide de l'outil d'intégration de votre choix. Vous ne pouvez charger des fichiers CSV sur Amazon S3 que lorsque vous utilisez l'association automatique.
+ **Échange de données informatisé (EDI)** : AWS Supply Chain prend en charge la version X12 ANSI 4010 pour les messages EDI 850, 860 et 856. Les formats de données pris en charge sont .edi ou .txt. Vous pouvez ajouter vos messages EDI bruts à Amazon S3 à l'aide de l'outil d'intégration de votre choix. AWS Supply Chain peut extraire et associer vos messages EDI bruts à l'aide de modèles par défaut par Natural Language Processing (NLP) pour EDI 856. Les modèles NLP ne sont pas pris en charge pour les EDI 850 et 860 et sont fournis avec des recettes prédéfinies mais personnalisables. AWS Supply Chain
+ **SAP S/4HANA** — Pour extraire les données de votre chaîne d'approvisionnement à partir d'une source de données SAP S/4HANA, vous pouvez AWS Supply Chain utiliser le AppFlow connecteur Amazon pour vous connecter à cette source. AWS Supply Chain peut associer les données de votre chaîne d'approvisionnement stockées dans le système SAP S/4HANA au modèle de AWS Supply Chain données à l'aide de. AWS Glue DataBrew
+  **SAP ECC 6.0** — Vous pouvez utiliser un outil d'intégration (par exemple, ETL ou iPaaS) pour extraire les données de votre chaîne d'approvisionnement stockées dans le système SAP ECC 6.0 et les placer dans le compartiment Amazon S3 à l'aide d'une API. AWS Supply Chain peut associer les données de votre chaîne d'approvisionnement stockées dans le système SAP ECC 6.0 au modèle de AWS Supply Chain données à l'aide DataBrew de.

**Topics**
+ [Terminologie utilisée dans le lac de données](data_lake_terminology.md)
+ [Tableau de bord du lac de données](data_ingestion.md)
+ [Ajouter une nouvelle source de données](adding_new_flows.md)
+ [Ingestion de données pour les connexions existantes](ingesting-data.md)

# Terminologie utilisée dans le lac de données
<a name="data_lake_terminology"></a>

Les termes suivants sont utilisés dans le lac de données :
+ **Entité** : informations relatives à un objet de données pour chaque catégorie. Par exemple, company, geography et trading\$1partner sont les entités d'une organisation. Pour de plus amples informations, veuillez consulter [Entités de données et colonnes utilisées dans AWS Supply Chain](data-model.md).
+ **Ensemble de données** : informations relatives à l'entité. Vous ne pouvez avoir qu'un seul jeu de données par entité.
+ **Connecteur** — Un moyen d'importer des données dans AWS Supply Chain.
+ **Recette** — Ensemble d'étapes décrivant comment mapper les données sources dans un jeu de données.
+ **Flux source 1** — Affiche les ensembles de données et les champs que vous avez téléchargés.
+ **Flux de destination 1** — Associe les données de votre ensemble de données aux entités de AWS Supply Chain données du lac de données.
+ **Système source 1** — Votre système de planification des ressources d'entreprise (ERP) existant, votre système de gestion d'entrepôt (WMS) ou tout autre système de gestion des données de la chaîne d'approvisionnement.

1 — Ces termes ne sont affichés que lorsque vous ingérez des données via Amazon S3 (ou l'option **Upload any CSV** dans l'application Web).

# Tableau de bord du lac de données
<a name="data_ingestion"></a>

Vous pouvez utiliser le lac de AWS Supply Chain données pour ingérer vos données provenant de différentes sources de données. Pour plus d'informations sur les sources de données prises en charge, consultez[Lac de données](data-connections.md).

![\[Vue d'ensemble du lac de données\]](http://docs.aws.amazon.com/fr_fr/aws-supply-chain/latest/userguide/images/data_lake_overvoew.png)


## Ingestion de données
<a name="ingestion"></a>

Vous pouvez consulter les connexions actuelles, les flux source et de destination. Pour consulter l'état des données ingérées, suivez la procédure ci-dessous.

1. Sur le AWS Supply Chain tableau de bord, dans le volet de navigation de gauche, choisissez **Data Lake**, puis l'onglet **Data Ingestion**.

   La page **Ingestion des données** s'affiche.  
![\[Ingestion des lacs de données\]](http://docs.aws.amazon.com/fr_fr/aws-supply-chain/latest/userguide/images/data-lake-ingestion.png)

1. Choisissez l'onglet **Source Flows**.
   + Flux source : affiche la structure de fichiers ou de dossiers de l'ensemble de données qui a été chargé.
   + Préfixe S3 — Affiche le chemin Amazon S3 où les fichiers source sont chargés.
   + État — Affiche l'état de téléchargement des fichiers source.
   + Dernière synchronisation : affiche la date de dernière synchronisation ou mise à jour des fichiers.
   + Actions — Vous pouvez consulter les informations suivantes :
     + Gérer le flux : vous pouvez mettre à jour le mappage des données.
     + Charger des fichiers : vous pouvez ajouter des fichiers source supplémentaires à vos flux source existants.
     + Supprimer le flux : vous pouvez supprimer complètement le flux source.

1. Choisissez l'onglet **Destination Flows**.

1. Sous **Actions**, choisissez **Gérer le flux** pour afficher et mettre à jour les mappages de données.

   La page **Gérer les flux de destination** s'affiche.  
![\[Flux de travail du lac de données\]](http://docs.aws.amazon.com/fr_fr/aws-supply-chain/latest/userguide/images/data-lake-flow.png)

1. Déplacez toutes les colonnes source non associées situées sous **Colonnes source vers Colonnes** de **destination**.

1. Choisissez **Quitter et examiner les flux de destination** pour revenir à la page des **flux de destination** afin de passer en revue les flux de destination.

1. Choisissez l'onglet **Connections (Connexions)**.

   Vous pouvez consulter toutes les connexions existantes.

## Jeux de données
<a name="viewing-datasets"></a>

Vous pouvez consulter l'état des ensembles de données ingérés.

Pour afficher tous les ensembles de données chargés sur les connexions existantes, suivez la procédure ci-dessous.

1. Sur le AWS Supply Chain tableau de bord, dans le volet de navigation de gauche, choisissez **Data Lake**, puis choisissez l'onglet **Datasets**.

   La page **Ensembles de données** apparaît.

1. Pour afficher un jeu de données, choisissez **Afficher**. 

1. Dans l'onglet **Champs du jeu** de données, vous pouvez afficher tous les champs du jeu de données existant dans le jeu de données.

1. Dans l'onglet **Connexions source**, vous pouvez afficher les connexions qui alimentent cet ensemble de données.

# Qualité des données
<a name="data_quality_datalake"></a>

Toutes les erreurs de qualité des données identifiées sont affichées sur l'application Web sous Erreurs de module. Vous pouvez afficher le jeu de données contenant des erreurs et le AWS Supply Chain module concerné. En outre, vous pouvez télécharger le rapport sur la qualité des données depuis votre compartiment Amazon S3. Le rapport fournit des informations détaillées sur les erreurs du jeu de données dans les données ingérées.

## Affichage des rapports sur la qualité des données
<a name="data_qual"></a>

Pour afficher les erreurs du AWS Supply Chain module, procédez comme suit :

**Note**  
Pour plus d'informations sur les entités de données obligatoires et facultatives pour chaque AWS Supply Chain module, consultez les sections Planification de la demande, Insights et Work Order Insights sous [Entités de données et colonnes utilisées dans AWS Supply Chain](https://docs.aws.amazon.com/aws-supply-chain/latest/userguide/data-model.html). 

1. Sur le AWS Supply Chain tableau de bord, dans le volet de navigation de gauche, choisissez **Data Lake**, puis l'onglet **Data Quality**.

1. Choisissez l'onglet **Erreurs du module**. Vous pouvez consulter les erreurs d'ingestion de données pour les AWS Supply Chain modules. 
**Note**  
Vous pouvez également consulter les erreurs du jeu de données et les modules concernés une fois que la première ingestion est terminée et que les flux de destination sont réussis. Si les flux de destination échouent, vous pouvez consulter les erreurs de qualité des données dans la colonne **Détails** de l'onglet **Flux de destination**.

   Vous pouvez filtrer les erreurs à l'aide des filtres suivants dans la liste déroulante du **module** :
   + Tous
   + Applications multiples
   + Planification de la demande
   + Informations
   + Informations sur les commandes  
![\[Boîte déroulante des filtres de module.\]](http://docs.aws.amazon.com/fr_fr/aws-supply-chain/latest/userguide/images/module_filters.png)

1. Consultez les erreurs de qualité des données dans les colonnes **Module concerné** et **Message d'état**.

   La colonne **Module concerné** affiche l' AWS Supply Chain application et les fonctionnalités associées qui ont été touchées.

   La colonne **Message d'état** affiche l'entité du produit et le nombre d'erreurs associées à chaque entité du produit. Par exemple, l'erreur « Le champ « channel\$1id » a une valeur nulle ou vide... » signifie que des données sont manquantes dans la colonne « channel\$1id » du fichier outbound\$1order\$1line ingéré.   
![\[Colonnes du module et du message d'état concernées.\]](http://docs.aws.amazon.com/fr_fr/aws-supply-chain/latest/userguide/images/data_quality_columns.png)

## Téléchargement de rapports sur la qualité des données
<a name="data_qual_reports"></a>

Pour télécharger le rapport sur la qualité des données, procédez comme suit :

1. Ouvrez la console Amazon S3 à [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)et connectez-vous.

1. Accédez ensuite au dossier d'ID d'**aws-supply-chain-data**instance **data-quality-report**.

1. Sélectionnez le dossier de l'entité de données que vous souhaitez afficher.

   Des dossiers individuels pour chaque ingestion de données apparaîtront.  
![\[Dossier d'entités de données de produit contenant des dossiers d'ingestion de données.\]](http://docs.aws.amazon.com/fr_fr/aws-supply-chain/latest/userguide/images/data_entity_folder.png)

1. Sélectionnez le dossier d'ingestion de données que vous souhaitez consulter.

   Le rapport sur la qualité des données s'affichera.  
![\[Fichier json du rapport sur la qualité des données.\]](http://docs.aws.amazon.com/fr_fr/aws-supply-chain/latest/userguide/images/data_quality_report.png)

1. Sélectionnez le fichier et choisissez **Télécharger pour télécharger** le rapport sur la qualité des données au format json. 

# Ajouter une nouvelle source de données
<a name="adding_new_flows"></a>

Vous pouvez l'utiliser AWS Supply Chain pour ingérer vos données stockées dans votre source de données et extraire les informations de votre chaîne d'approvisionnement. AWS Supply Chain *vous pouvez stocker les informations extraites dans vos compartiments Amazon S3 et utiliser les données pour la planification de la *demande, les *informations*, la planification* des *approvisionnements, la* *visibilité N-Tier*, les *informations sur les ordres de travail* et le développement durable.*

**Topics**
+ [Conditions requises pour ingérer des données](#data_prerequisites-profiles)
+ [Téléchargement de fichiers pour la première fois](uploading_files.md)
+ [Connexion à un EDI](connecting-edi.md)
+ [Connexion à S/4 HANA](connecting-sap-hana.md)
+ [Connexion à SAP ECC 6.0](connecting-sap-ecc.md)
+ [Ajouter une nouvelle source sortante pour la planification des approvisionnements](adding_new_outbound_connector.md)

## Conditions requises pour ingérer des données
<a name="data_prerequisites-profiles"></a>

Avant de télécharger vos ensembles de données en vue de leur ingestion, prenez note des points suivants :
+ La taille du fichier que vous chargez doit être inférieure à 5 Go.
+ Le contenu de l'ensemble de données doit suivre le format de codage UTF-8.
+ Le type de fichier doit être pris en charge par le connecteur. Les connecteurs pour les systèmes SAP prennent en charge le format CSV, le connecteur EDI prend en charge les formats .txt et .edi, et Amazon S3 prend en charge le format CSV. 
+ Les lignes de données doivent contenir des valeurs non nulles pour les champs obligatoires.
+ Le format de date et d'heure doit respecter les normes ISO86 01. Par exemple, 2020-07-10 15:00:00.000 représente le 10 juillet 2020 à 15 heures.
+ Les noms de colonnes de l'ensemble de données ne doivent pas contenir d'espaces ni de caractères spéciaux. Les noms de colonnes doivent être séparés par un trait de soulignement (\$1) entre deux mots.
+ Lorsque vous utilisez le chemin source Amazon S3, un dossier parent nommé d'après le système source que vous avez sélectionné AWS Supply Chain sera créé. Les sous-dossiers portent le nom de la table source que vous avez sélectionnée. Assurez-vous que les noms de fichiers sont uniques. La structure de fichier que vous créez sera utilisée pour créer le chemin Amazon S3.
+ AWS Supply Chain suit un processus de téléchargement en plusieurs étapes avec URLs préattribution. En raison des restrictions de sécurité du navigateur, pour télécharger votre ensemble de données, les autorisations CORS (partage de ressources entre origines) de votre compartiment S3 doivent autoriser les requêtes *PUT* et renvoyer un *ETag*en-tête. Pour mettre à jour la politique CORS sur votre compartiment Amazon S3, sous **Connections**, faites défiler la page vers le bas jusqu'à CORS et collez la politique suivante :

  ```
                  
   [
   {
   "AllowedHeaders": [
   "*"
   ],
   "AllowedMethods": [
   "PUT"
   ],
   "AllowedOrigins": [
   "https://instance-id.scn.global.on.aws"
   ],
   "ExposeHeaders": [
   "Etag"
   ]
   }
   ]
  ```

# Téléchargement de fichiers pour la première fois
<a name="uploading_files"></a>

Vous pouvez utiliser la fonction d' AWS Supply Chain association automatique pour télécharger vos données brutes et les associer automatiquement au modèle de AWS Supply Chain données. Vous pouvez également afficher les colonnes et les tableaux *requis* pour chaque AWS Supply Chain module dans l'application AWS Supply Chain Web.

Pour une brève démonstration du fonctionnement de l'auto-association, regardez la vidéo suivante :




**Note**  
Vous ne pouvez charger des fichiers CSV sur Amazon S3 que lorsque vous utilisez l'association automatique.

Une fois que les colonnes source de votre jeu de données sont associées aux colonnes de destination, la recette SQL AWS Supply Chain sera automatiquement générée.

**Note**  
AWS Supply Chain utilise Amazon Bedrock pour l'association automatique, qui n'est pas prise en charge dans toutes les AWS AWS Supply Chain régions et régions disponibles. Par conséquent, AWS Supply Chain vous appellerez le point de terminaison Amazon Bedrock depuis la région disponible la plus proche, à savoir la région Europe (Irlande) — Europe (Francfort) et la région Asie-Pacifique (Sydney) — USA Ouest (Oregon).

**Note**  
L'association automatique à l'aide des grands modèles linguistiques (LLM) n'est prise en charge que lorsque les données sont ingérées via Amazon S3.

1. Sur le AWS Supply Chain tableau de bord, dans le volet de navigation de gauche, choisissez **Data Lake**, puis l'onglet **Data Ingestion**.

   La page **Ingestion des données** s'affiche.

1. Choisissez **Ajouter une nouvelle source**.

   La page **Sélectionnez votre source de données** apparaît.

1. Sur la page **Sélectionnez votre source de données**, choisissez **Charger des fichiers**.

1. Choisissez **Continuer**.  
![\[Téléchargement de vos fichiers sources\]](http://docs.aws.amazon.com/fr_fr/aws-supply-chain/latest/userguide/images/data_lake.png)

1. Sur la page **Quelles fonctionnalités souhaitez-vous exécuter**, choisissez les AWS Supply Chain modules que vous souhaitez utiliser. Vous pouvez choisir plusieurs modules.

1. Dans la section **Charger vos fichiers source**, ajoutez un suffixe au **nom du système source**. Par exemple, oracle\$1test.

1. Pour télécharger votre jeu de données source, choisissez **des fichiers** ou glissez-déposez des fichiers.

   Les tables sources avec le nom et le statut sont affichées.

1. Choisissez **Upload to S3**. L'*état du téléchargement* changera pour afficher le statut.

1. Sous Vérifier les **exigences en matière de données**, passez en revue toutes les entités de données et colonnes requises pour la AWS Supply Chain fonctionnalité sélectionnée. Toutes les clés primaires et étrangères requises sont affichées.

1. Choisissez **Continuer**.

1. Sous **Gérer vos tables sources**, les tables sources suivantes et les colonnes répertoriées seront associées automatiquement et importées dans le lac de données.

   Choisissez **Supprimer la table** pour supprimer toutes les tables sources avant de les importer dans le lac de données.  
![\[Gestion de vos fichiers sources\]](http://docs.aws.amazon.com/fr_fr/aws-supply-chain/latest/userguide/images/data_lake1.png)

1. Choisissez **Tout accepter et continuer**.

   Un message sur l'association automatique de vos tables au lac de AWS Supply Chain données s'affiche.  
![\[Gestion des flux de destination\]](http://docs.aws.amazon.com/fr_fr/aws-supply-chain/latest/userguide/images/data_lake3.png)

1. Sous **Gérer les flux de destination**, vous pouvez consulter chaque table associée automatiquement.

   Par défaut, **l'association automatique** est activée et les colonnes source sont associées automatiquement aux colonnes de destination. Pour mettre à jour les colonnes associées automatiquement, vous pouvez mettre à jour la recette SQL afin de créer votre recette personnalisée.

1. Sous **Colonnes source**, toutes les colonnes source non associées sont répertoriées. Faites glisser les colonnes non associées vers les colonnes de **destination** sur la droite.

1. Suivez l'étape précédente pour chaque table associée automatiquement.

1. Sélectionnez **Envoyer**.

1. Choisissez **Exit and Review Destination Flows**.

# Téléchargement des fichiers suivants vers une source existante
<a name="incremental_file_upload"></a>

Il existe deux manières de télécharger les ensembles de données suivants vers une source existante. Vous pouvez soit télécharger le jeu de données sur le chemin Amazon S3 affiché sous l'onglet **Source Flows**, soit choisir **Upload files** sous l'onglet **Actions**.

Si vous utilisez un connecteur automatique, si vous exécutez des scripts ou si vous utilisez une solution intermédiaire pour intégrer le jeu de données AWS Supply Chain, vous devez mettre à jour le chemin Amazon S3 avec le chemin Amazon S3 affiché sous l'onglet **Source Flows**. 

**Note**  
Si un fichier existant portant le même nom de fichier est chargé à nouveau sur Amazon S3, le fichier AWS Supply Chain sera remplacé sur Amazon S3.

![\[Ingestion de données pour les téléchargements de fichiers ultérieurs\]](http://docs.aws.amazon.com/fr_fr/aws-supply-chain/latest/userguide/images/Data_lake_upload.png)


# Connexion à un EDI
<a name="connecting-edi"></a>

Pour ingérer des données provenant d'une source de données EDI, suivez la procédure ci-dessous.

1. Sur le AWS Supply Chain tableau de bord, dans le volet de navigation de gauche, choisissez **Data Lake**.

1. Sur la page **Data Lake**, choisissez **Ajouter une nouvelle source**.

   La page **Sélectionnez votre source de données de chaîne d'approvisionnement** apparaît.

1. Choisissez **EDI**.

1. Sur la page **Détails de la connexion EDI**, sous **Nommer votre connexion**, entrez le nom de votre connexion.

1. (Facultatif) Sous **Description de la connexion**, entrez une description pour votre connexion.

1. Sous **Amazon S3 Bucket Billing**, consultez les informations de facturation Amazon S3, puis sélectionnez **Reconnaître**. 

1. Choisissez **Suivant**.

1. Sous **Cartographie des données**, sélectionnez **Commencer**.

1. 
**Note**  
Les protocoles EDI 850, EDI 860 et EDI 856 sont pris en charge dans AWS Supply Chain.
**Note**  
Les champs obligatoires sont déjà mappés. Effectuez cette étape uniquement si vous souhaitez apporter des modifications spécifiques à la recette de transformation par défaut.

   Sur la page **Recette de mappage**, vous pouvez consulter la recette de transformation par défaut sous **Mappages de champs**. 

   Choisissez **Ajouter un mappage** pour mapper tout champ de destination supplémentaire. Les **champs de destination obligatoires** sont obligatoires. Choisissez **le champ de destination** pour ajouter un champ de destination personnalisé supplémentaire.
**Note**  
Passez en revue toutes les entités (par exemple, la commande entrante, la ligne de commande entrante et le calendrier des lignes de commande entrantes pour le groupe d'entités EDI 850) sous chaque groupe d'entités.

1. Pour afficher les valeurs du champ source et les mappages de données issus de la recette de transformation, vous pouvez télécharger des exemples de données. Sur la page **Mapping Recipe**, sous **Télécharger des exemples de données**, choisissez **Parcourir les fichiers** ou glisser-déposer des fichiers. L'exemple de fichier de données doit contenir les paramètres requis et inclure les noms des champs sources.

1. Choisissez **Tout accepter et continuez**.

1. Sous **Vérifier et confirmer**, vous pouvez consulter le résumé de la connexion de données. Pour modifier le mappage de vos champs de données, choisissez **Retourner au mappage des données**.

1. Choisissez **Confirmer et configurez l'ingestion des données** pour passer en revue les chemins Amazon S3 sur lesquels vos données sources doivent être téléchargées pour démarrer le processus d'ingestion.

1. Choisissez **Confirmer et configurez l'ingestion de données ultérieurement** si vous souhaitez ingérer des données ultérieurement. Vous pouvez ingérer des données à tout moment après avoir créé la connexion depuis le AWS Supply Chain tableau de bord.

1. Sur le AWS Supply Chain tableau de bord, choisissez **Open Connections**. **Sélectionnez le flux de données de connexion dans lequel vous souhaitez ingérer des données, choisissez les points de suspension verticaux, puis sélectionnez Configuration de l'ingestion.**

# Connexion à S/4 HANA
<a name="connecting-sap-hana"></a>

Avant de pouvoir vous connecter à votre source de données S/4 HANA, vous devez remplir les conditions préalables suivantes. Ensuite, crée AWS Supply Chain automatiquement les chemins Amazon S3 et ingère les données des tables sources SAP.

## Conditions requises pour se connecter à S/4 HANA
<a name="prerequisites-s4hana"></a>

Pour vous connecter à la source de données S/4 HANA, les conditions préalables suivantes doivent être remplies avant d'ingérer des données.

1. Configurez votre système SAP S/4 HANA pour activer l'extraction de données basée sur ODP via le connecteur OData SAP pour Amazon. AppFlow Pour plus d'informations, consultez le [ OData connecteur SAP pour Amazon AppFlow](https://docs.aws.amazon.com/appflow/latest/userguide/sapodata.html).

1. Configurez vos sources de données ou extracteurs SAP et générez des OData services basés sur ODP pour AWS Supply Chain connecter et extraire des informations. Pour de plus amples informations, veuillez consulter [Sources de données SAP](#s4-datasources).

1. Configurez votre système SAP avec l'un des types d'authentification suivants :
   + Base
   + OAuth

1. Configurez les rôles de sécurité dans le système SAP pour activer l'extraction des données.

1. Configurez la connectivité réseau avec SAP S/4 HANA. Si votre instance SAP se trouve dans un VPN sécurisé et que vous ne pouvez pas ouvrir de port AWS Supply Chain pour vous connecter, nous vous recommandons de l'utiliser AWS PrivateLink. Pour une configuration manuelle AWS PrivateLink, voir [AWS pour SAP](https://aws.amazon.com/blogs/awsforsap/share-sap-odata-services-securely-through-aws-privatelink-and-the-amazon-appflow-sap-connector/) et pour une configuration automatique à l'aide CloudFormation, voir [CloudFormation](https://github.com/aws-cloudformation/aws-cloudformation-templates/tree/main/AWSSupplyChain/SapPrivateLink).

## Configuration de la connexion S/4 HANA
<a name="connecting-s4hana"></a>

Pour ingérer des données depuis une source de données SAP S/4HANA, suivez la procédure ci-dessous.

1. Sur le AWS Supply Chain tableau de bord, dans le volet de navigation de gauche, choisissez **Data Lake**.

1. Sur la page **Data Lake**, choisissez **Ajouter une nouvelle source**.

   La page **Sélectionnez votre source de données de chaîne d'approvisionnement** apparaît.

1. Choisissez **SAP S/4HANA**.

1. Choisissez **Suivant**.

1. Dans Détails de **connexion SAP S/4HANA, entrez les informations** suivantes :
   + **Nom de la connexion** — Entrez le nom de cette connexion.
   + (Facultatif) **Description de la connexion** : entrez le nom de cette connexion.
   + **Utiliser un AppFlow connecteur existant** — Choisissez **Oui** pour utiliser un AppFlow connecteur existant.
   + **URL de l'hôte de l'application** : entrez l'URL du compte SAP. 
   + **Chemin du service d'application** : entrez le chemin du service d'application SAP.
   + **Numéro de port** — Entrez le numéro de port SAP. 
   + **Numéro de client** — Entrez le numéro de client SAP.
   + **Langue de connexion** : entrez le code de langue SAP. Par exemple, EN pour l'anglais.
   + **PrivateLink**— Choisissez **Activé** pour activer une connexion privée entre le serveur SAP et votre Compte AWS hébergement AWS Supply Chain.
   + **Nom d'utilisateur** — Entrez le nom d'utilisateur du compte SAP. 
   + **Mot de passe** — Entrez le mot de passe du compte SAP. 
**Note**  
Amazon AppFlow utilise le **nom d'utilisateur** et le **mot de passe** SAP que vous avez fournis pour se connecter à SAP.

1. Choisissez **Connect to SAP**.

   Si le nom d'utilisateur et le mot de passe SAP sont correctement saisis, le message **Connexion réussie** s'affiche.

1. (Facultatif) Sous ** AppFlow Configuration facultative**, **Étape 1 - Télécharger le fichier modèle JSON**, choisissez **Télécharger le fichier modèle JSON existant** pour modifier les paramètres d'ingestion du flux d'applications.
**Note**  
Vous pouvez utiliser votre propre éditeur pour modifier le fichier .json. Vous ne pouvez pas modifier le fichier .json dans AWS Supply Chain.

   Après avoir mis à jour le fichier .json, sous **Étape 2 - Télécharger le fichier modèle JSON modifié**, choisissez **Parcourir les fichiers** à télécharger.
**Note**  
Si ce téléchargement échoue, le **résumé du téléchargement** affichera les erreurs ou les conflits dans le fichier .json. Vous pouvez mettre à jour le fichier .json pour résoudre les problèmes et le télécharger à nouveau.

   Voici un exemple de fichier .json avec le calendrier, les flux de données et les tables sources requis.

   ```
   {
       "schedule" : { 
           "scheduleExpression"  : "rate(1days)", // scheduleExpression key should be available and the value cannot be null/empty. Format starts with rate and having time values in minutes, hours, or days. For example, rate(1days)
           "scheduleStartTime" : null // Supported format - "yyyy-MM-dd'T'hh:mm:ss[+|-]hh:mm". For example, 2022-04-26T13:00:00-07:00. ScheduleStartTime should atleast be 5 minutes after current time. A null value will automatically set the start time as 5 minutes after the connection creation time
       },
       "dataFlows" : [ // DataFlows cannot be null or empty. Make sure to choose from the list below
           "Company-Company",
           "Geography-Geography",
           "Inventory-Inventory Level",
           "Inventory-Inventory Policy",
           "Outbound-Outbound Order Line",
           "Outbound-Outbound Shipment",
           "Product-Product",
           "Product-Product Hierarchy",
           "Production Order-Inbound Order",
           "Production Order-Inbound Order Line",
           "Purchase Order-Inbound Order",
           "Purchase Order-Inbound Order Line",
           "Purchase Order-Inbound Order Line Schedule",
           "Reference-Reference Fields",
           "Shipment-Shipment",
           "Site-Site",
           "Site-Transportation Lane",
           "Trading Partner-Trading Partner",
           "Transfer Order-Inbound Order Line",
           "Vendor Management-Vendor Lead Time",
           "Vendor Management-Vendor Product",
           "Product-Product UOM"
       ],
       "sourceTables" : [   // sourceTables cannot be empty
           {
               "tableName" : "SomeString", // Should be an existing table name from the SAP instance
               "extractType" : "DELTA",      // Should either be DELTA or FULL 
               "tableCols" : [    // TableCols cannot be empty. Enter valid column names for the table
                   "col1",
                   "col2",
                   "col3"
               ],
               "filters" : [// Optional field
                       "colName" : "col1", // colName value should be part of tableCols
                       "dataType" : "String",  // Should contain values `STRING` or `DATETIME`
                       "value" : "String",
                       "operator" : "String"  // Choose a string value from the pre-defined value of "PROJECTION", "LESS_THAN", "CONTAINS","GREATER_THAN","LESS_THAN_OR_EQUAL_TO","GREATER_THAN_OR_EQUAL_TO","EQUAL_TO","NOT_EQUAL_TO","ADDITION","MULTIPLICATION","DIVISION","SUBTRACTION","MASK_ALL","MASK_FIRST_N","MASK_LAST_N","VALIDATE_NON_NULL","VALIDATE_NON_ZERO","VALIDATE_NON_NEGATIVE",or "VALIDATE_NUMERIC","NO_OP";
               ]
           },
           {
   
               // sourceTables with same keys - tableName, extractType, tableCols, filters(not mandatory)
           
           }
       ]
   }
   ```

1. Sous **Amazon S3 Bucket Billing**, consultez les informations de facturation Amazon S3, puis sélectionnez **Reconnaître**. 

1. Choisissez **Suivant**.

1. Sous **Cartographie des données**, sélectionnez **Commencer**.

1. 
**Note**  
Les champs obligatoires sont déjà mappés. Effectuez cette étape uniquement si vous souhaitez apporter des modifications spécifiques à la recette de transformation par défaut.

   Sur la page **Recette de mappage**, vous pouvez consulter la recette de transformation par défaut sous **Mappages de champs**. 

   Choisissez **Ajouter un mappage** pour mapper tout champ de destination supplémentaire. Les **champs de destination obligatoires** sont obligatoires. Choisissez **le champ de destination** pour ajouter un champ de destination personnalisé supplémentaire.

1. Pour afficher les valeurs du champ source et les mappages de données issus de la recette de transformation, vous pouvez télécharger des exemples de données. Sur la page **Mapping Recipe**, sous **Télécharger des exemples de données**, choisissez **Parcourir les fichiers** ou glisser-déposer des fichiers. L'exemple de fichier de données doit contenir les paramètres requis et inclure les noms des champs sources.

1. Choisissez **Tout accepter et continuez**.

1. Sous **Vérifier et confirmer**, vous pouvez consulter le résumé de la connexion de données. Pour modifier le mappage de vos champs de données, choisissez **Retourner au mappage des données**.

1.  (Facultatif) Sous **Actions de recette**, vous pouvez effectuer les opérations suivantes :
   + **Télécharger le fichier de recette** - Sélectionnez **Télécharger** pour modifier vos fichiers de recettes dans SQL sous forme de fichier texte.
**Note**  
Pour plus d'informations sur les fonctions SQL intégrées, consultez [Spark SQL](https://spark.apache.org/docs/latest/api/sql/index.html).
   + **Télécharger le fichier de recette** - Choisissez de **parcourir les fichiers** ou de glisser-déposer vos fichiers texte de recette modifiés par glisser-déposer. Sélectionnez **Confirmer le téléchargement** pour télécharger le fichier de recette modifié et modifier les mappages de vos champs de données.

1. Pour consulter les chemins de localisation Amazon S3 sur lesquels vous devez télécharger vos données sources SAP à des fins d'ingestion, choisissez **Confirmer et configurez l'ingestion de données**. Vous pouvez également choisir **Confirmer et configurer l'ingestion des données ultérieurement**. Vous pouvez consulter les informations relatives à l'ingestion des données à tout moment. Dans le AWS Supply Chain tableau de bord, sélectionnez **Connexions**. **Sélectionnez le flux de données de connexion dans lequel vous souhaitez ingérer des données, choisissez les points de suspension verticaux, puis sélectionnez Configuration de l'ingestion.**

## Sources de données SAP
<a name="s4-datasources"></a>

Configurez les sources de tables SAP suivantes AWS Supply Chain pour connecter et extraire des informations.

**Note**  
Lorsque vous recherchez une source de données SAP, préfixez le nom de la source de données par *EntityOf*. *Par exemple, pour la source de données 0BP\$1DEF\$1ADDRESS\$1ATTR, le nom de l'entité doit être *0BP\$1DEF\$1ADDRESS\$1ATTR.* EntityOf*  
Lorsqu'Amazon AppFlow extrait chaque source de données SAP, le format du nom de l'entité est utilisé pour extraire les informations. *Par exemple, pour extraire des données de *0BP\$1DEF\$1ADDRESS\$1ATTR, les données sont extraites du chemin de l'entité/0BP\$1DEF\$1ADDRESS\$1ATT*. sap/opu/odata/sap/Z0BP\$1DEF\$1ADDRESS\$1ATTR\$1SRV/EntityOf*


| Source de données SAP | Description de la source de données SAP | Tableau des sources SAP | OData nom du service | Source de données BW | Données SAP | Delta/Complet | 
| --- | --- | --- | --- | --- | --- | --- | 
|  0BP\$1DEF\$1ADDRESS\$1ATTR  |  Extraction d'adresses standard BP  |  NA  |  Z0BP\$1DEF\$1ADDRESS\$1ATTR\$1SRV  |  Source de données  |  Données de base  |  Delta  | 
|  0BPARTNER\$1ATTR  |  BP : BW Extraction Central Data  |  NA  |  Z0BPARTNER\$1ATTR\$1SRV  |  Source de données  |  Données de base  |  Delta  | 
|  0BPARTNER\$1TEXT  |  BP : DataSource pour les textes destinés aux partenaires commerciaux  |  NA  |  Z0BPARTNER\$1TEXT\$1SRV  |  Source de données  |  Données de base  |  Delta  | 
|  0CO\$1PC\$1ACT\$105  |  Évaluation des matériaux : prix  |  NA  |  Z0CO\$1PC\$1ACT\$105\$1SRV  |  Source de données  |  Données de base  |  Complet  | 
|  0COMP\$1CODE\$1TEXT  |  Texte du code de l'entreprise  |  NA  |  Z0COMP\$1CODE\$1TEXT\$1SRV  |  Source de données  |  Données de base  |  Complet  | 
|  0 CUSTOMER\$1ATTR  |  Client  |  NA  |  Z0CUSTOMER\$1ATTR\$1SRV  |  Source de données  |  Données de base  |  Delta  | 
|  0MAT\$1VEND\$1ATTR  |  Matériau ou fournisseur  |  NA  |  Z0MAT\$1VEND\$1ATTR\$1SRV  |  Source de données  |  Données de base  |  Delta  | 
|  0MATERIAL\$1ATTR  |  Material (Matériau)  |  NA  |  Z0MATERIAL\$1ATTR\$1SRV  |  Source de données  |  Données de base  |  Delta  | 
|  0 TEXTE\$1MATÉRIEL  |  Texte du matériau  |  NA  |  Z0MATERIAL\$1TEXT\$1SRV  |  Source de données  |  Données de base  |  Delta  | 
|  0PURCHAS\$1ORG\$1TEXT  |  Texte de l'organisation des achats  |  NA  |  Z0PURCH\$1ORG\$1TEXT\$1SRV  |  Source de données  |  Données de base  |  Complet  | 
|  0VENDOR\$1ATTR  |  Vendor  |  NA  |  Z0VENDOR\$1ATTR\$1SRV  |  Source de données  |  Données de base  |  Delta  | 
|  2LIS\$102\$1HDR  |  Données d'achat (niveau en-tête)  |  NA  |  Z2LIS\$102\$1HDR\$1SRV  |  Source de données  |  Transactionnel  |  Delta  | 
|  2LIS\$102\$1ITM  |  Données d'achat (au niveau de l'article)  |  NA  |  Z2LIS\$102\$1ITM\$1SRV  |  Source de données  |  Transactionnel  |  Delta  | 
|  2LIS\$102\$1SCL  |  Données d'achat (niveau de la ligne de planification)  |  NA  |  Z2LIS\$102\$1SCL\$1SRV  |  Source de données  |  Transactionnel  |  Delta  | 
|  2LIS\$102\$1SCN  |  Confirmation des lignes d'horaire  |  NA  |  Z2LIS\$102\$1SCN\$1SRV  |  Source de données  |  Transactionnel  |  Delta  | 
|  2LIS\$103\$1BF  |  Mouvements de marchandises liés à la gestion des stocks  |  NA  |  Z2LIS\$103\$1BF\$1SRV  |  Source de données  |  Transactionnel  |  Delta  | 
|  2LIS\$104\$1P\$1MATNR  |  Vue du matériau depuis PP/PP-PI  |  NA  |  Z2LIS\$104\$1P\$1MATNR\$1SRV  |  Source de données  |  Transactionnel  |  Delta  | 
|  2LIS\$108TRFKP  |  Coûts d'expédition au niveau de l'article  |  NA  |  Z2LIS\$108TRFKP\$1SRV  |  Source de données  |  Transactionnel  |  Delta  | 
|  2LIS\$108TRTLP  |  Expédition : données de l'article de livraison par section  |  NA  |  Z2LIS\$108TRTLP\$1SRV  |  Source de données  |  Transactionnel  |  Delta  | 
|  2LIS\$108TRTK  |  Expédition : données d'en-tête  |  NA  |  Z2LIS\$108TRTK\$1SRV  |  Source de données  |  Transactionnel  |  Delta  | 
|  2LIS\$111\$1VAHDR  |  En-tête du document de vente  |  NA  |  Z2LIS\$111\$1VAHDR\$1SRV  |  Source de données  |  Transactionnel  |  Delta  | 
|  2LIS\$111\$1VAITM  |  Article de document de vente  |  NA  |  Z2LIS\$111\$1VAITM\$1SRV  |  Source de données  |  Transactionnel  |  Delta  | 
|  2LIS\$112\$1VCITM  |  Données relatives aux articles de livraison  |  NA  |  Z2LIS\$112\$1VCITM\$1SRV  |  Source de données  |  Transactionnel  |  Delta  | 
|  ZADRC  |  Adresses  |  ADRC  |  ZADRC\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZBUT021\$1FS  |  Adresse du partenaire  |  BUT021\$1FS  |  ZBUT021\$1FS\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZCDHDR  |  Modifier l'en-tête du document  |  CDHDR  |  ZCDHDR\$1SRV  |  Tableau  |  Données de base  |  Delta  | 
|  ZEINA  |  Enregistrement des informations d'achat : données générales  |  EINA  |  ZEINA\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZÉINE  |  Enregistrement des informations sur les achats : données de l'organisation des achats  |  ZV\$1EINE  |  ZEINE\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZEKKO  |  En-tête du document d'achat  |  ZV\$1EKKO  |  ZEKKO\$1SRV  |  Tableau  |  Transactionnel  |  Delta  | 
|  ZEKPO  |  Article du document d'achat  |  ZV\$1EKPO  |  ZEKPO\$1SRV  |  Tableau  |  Transactionnel  |  Delta  | 
|  ZEQUI  |  Données de base de l'équipement  |  EQUI  |  ZEQUI\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZGEOLOC  |  Géolocalisation  |  GÉOLOC  |  ZGEOLOC\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZLIKP  |  Données d'en-tête de livraison  |  LIKP  |  ZLIKP\$1SRV  |  Tableau  |  Transactionnel  |  Delta  | 
|  ZIPS  |  Livraison : données de l'article  |  ZV\$1LIPS  |  ZLIPS\$1SRV  |  Tableau  |  Transactionnel  |  Delta  | 
|  ZMDRP\$1NODTT  |  Type de nœud pour le réseau DRP  |  MDRP\$1NODTT  |  ZMDRP\$1NODTT\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZMARC  |  Données sur les plantes pour le matériel  |  ZQ\$1MARC  |  ZMARC\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZMARD  |  Données relatives à l'emplacement de stockage du matériel  |  ZQ\$1MARD  |  ZMARD\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZMCHB  |  Stocks par lots  |  ZQ\$1MCHB  |  ZMCHB\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZT001W  |  Plante  |  T001W  |  ZT001W\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZT005T  |  Noms de pays  |  T005T  |  ZT005T\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZT141 T  |  Descriptions de l'état du matériel  |  T141T  |  ZT141T\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZT173 T  |  Type d'expédition Textes de transport  |  T173T  |  ZT173T\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZT179  |  Matériaux : hiérarchies de produits  |  T179  |  ZT179\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZT179 T  |  Matériaux : texte des hiérarchies de produits  |  T179T  |  ZT179T\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZT370U  |  Texte de la catégorie d'équipement  |  T370U  |  ZT370U\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZT618 T  |  Descriptions des modes de transport  |  T618T  |  ZT618T\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZTVRAB  |  Étapes de l'itinéraire  |  TVRAB  |  ZTVRAB\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZTVRO  |  Routes  |  TVRO  |  ZTVRO\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZVALW  |  Horaire de l'itinéraire  |  VALW  |  ZVALW\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZVBBE  |  Exigences de vente : dossiers individuels  |  VBBE  |  ZVBBE\$1 SRVs  |  Tableau  |  Données de base  |  Complet  | 
|  ZINB\$1SHIPPING  |  En-tête d'expédition et article (entrant)  |  ZV\$1INB\$1SHIPMENT basé sur la condition de jointure : VTTK.MANDT = VTTP.MANDT et VTTK.TKNUM = VTTP.TKNUM  |  ZINB\$1SHIPMENT\$1SRV  |  Tableau  |  Transactionnel  |  Complet  | 
|  ZAUFK  |  Données de base de commande  |  AUFK  |  ZAUFK\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZMARM  |  Unité de mesure du matériau  |  MARM  |  ZMARM\$1SRV  |  Tableau  |  Données de base  |  Complet  | 
|  ZÉBAN  |  Demandes d'achat  |  HARICOT  |  ZEBAN\$1SRV  |  Tableau  |  Données transactionnelles  |  Delta  | 

# Connexion à SAP ECC 6.0
<a name="connecting-sap-ecc"></a>

Pour extraire vos données de SAP ECC 6.0, suivez la procédure ci-dessous.

1. Sur le AWS Supply Chain tableau de bord, dans le volet de navigation de gauche, choisissez **Data Lake**.

1. Sur la page **Data Lake**, choisissez **Ajouter une nouvelle source**.

   La page **Sélectionnez votre source de données de chaîne d'approvisionnement** apparaît.

1. Choisissez **SAP ECC.**

1. Dans **Détails de connexion SAP ECC**, entrez les informations suivantes :
   + **Nom de la connexion** — Entrez le nom de votre connexion. Les noms de connexion ne peuvent contenir que des lettres, des chiffres et des tirets.
   + **Description de la connexion** — Entrez la description de votre connexion.

1. Sous **Amazon S3 Bucket Billing**, consultez les informations de facturation Amazon S3, puis sélectionnez **Reconnaître**. 

1. Choisissez **Suivant**.

1. Sous **Cartographie des données**, sélectionnez **Commencer**.

1. 
**Note**  
Les champs obligatoires sont déjà mappés. Effectuez cette étape uniquement si vous souhaitez apporter des modifications spécifiques à la recette de transformation par défaut.

   Sur la page **Recette de mappage**, vous pouvez consulter la recette de transformation par défaut sous **Mappages de champs**.

   Choisissez **Ajouter un mappage pour mapper** tout champ de destination supplémentaire. Les **champs de destination obligatoires** sont obligatoires. Choisissez **le champ de destination** pour ajouter un champ de destination personnalisé supplémentaire.

1. 
**Note**  
Vous pouvez uniquement les utiliser AWS Glue DataBrew pour modifier les recettes des entités transactionnelles. AWS Supply Chain Utilisez-le pour télécharger vos recettes et les modifier DataBrew. Réimportez ensuite les recettes dans AWS Supply Chain. Vous ne pouvez pas utiliser l'application AWS Supply Chain Web pour modifier les champs de données transactionnels d'une recette.

    (Facultatif) Sous **Actions de recette**, vous pouvez effectuer les opérations suivantes :
   + **Télécharger le fichier de recette** - Sélectionnez **Télécharger** pour modifier vos fichiers de recettes hors ligne avec DataBrew.
   + **Télécharger un fichier de recette** : choisissez de **parcourir les fichiers** ou de déplacer (glisser-déposer) vos fichiers de recettes modifiés. Sélectionnez **Confirmer le téléchargement** pour télécharger le fichier de recette modifié et modifier les mappages de vos champs de données.
   + **Rétablir la recette par défaut** - Sélectionnez **Oui, réinitialiser ma recette** pour supprimer tous vos mappages personnalisés et revenir à la recette par défaut recommandée par. AWS Supply Chain

1. Pour modifier les mappages de vos champs sources et valider votre recette de transformation, vous pouvez télécharger des exemples de données. Sur la page **Mapping Recipe**, sous **Télécharger des exemples de données**, choisissez **Parcourir les fichiers** ou déplacer (glisser-déposer) les fichiers. L'exemple de fichier de données doit contenir les paramètres requis et inclure les noms des champs sources.

1. Choisissez **Tout accepter et continuez**.

1. Sous **Vérifier et confirmer**, vous pouvez consulter le résumé de la connexion de données. Pour modifier le mappage de vos champs de données, choisissez **Retourner au mappage des données**.

1. Pour consulter les chemins Amazon S3 sur lesquels vous devez télécharger vos données sources SAP à des fins d'ingestion, choisissez **Confirmer et configurez l'ingestion de données**. Vous pouvez également choisir **Confirmer et configurer l'ingestion des données ultérieurement**. Vous pouvez consulter les informations relatives à l'ingestion des données à tout moment. Dans le AWS Supply Chain tableau de bord, sélectionnez **Connexions**. **Sélectionnez le flux de données de connexion dans lequel vous souhaitez ingérer des données, choisissez les points de suspension verticaux, puis sélectionnez Configuration de l'ingestion.**

1. Si vous n'utilisez pas l'API Amazon S3 pour ingérer des données, créez le chemin Amazon S3 manuellement sur la console Amazon S3. Pour plus d'informations sur la création de chemins, consultez[Chargement de données dans un compartiment Amazon S3](manually-uploading-data.md).

1. Consultez le tableau suivant pour mapper l'entité de AWS Supply Chain données avec la source SAP.
**Important**  
Sur la page du **chemin Amazon S3**, vous devez télécharger l'entité parent avant l'entité enfant. Vous pouvez d'abord télécharger toutes les entités parents, puis télécharger toutes les entités enfants ensemble.

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/aws-supply-chain/latest/userguide/connecting-sap-ecc.html)

# Ajouter une nouvelle source sortante pour la planification des approvisionnements
<a name="adding_new_outbound_connector"></a>

Vous pouvez utiliser la nouvelle source sortante pour télécharger les demandes de bons de commande ou les améliorations du plan de *planification des approvisionnements* mises à jour.

1. Sur le AWS Supply Chain tableau de bord, dans le volet de navigation de gauche, choisissez **Data Lake**, puis l'onglet **Data Ingestion**.

   La page **Ingestion des données** s'affiche.

1. Choisissez **Ajouter une source sortante**.

   La page des **détails de la connexion Amazon S3** s'affiche.

1. Sous **Nom de la connexion**, entrez le nom de votre connexion Amazon S3.

1. Sous **Données sortantes**, sélectionnez le flux de données sortant que vous souhaitez exporter. Les flux de données relatifs aux demandes de bons de commande et aux prévisions d'approvisionnement sont pris en charge.

1. Choisissez **Confirmer**.

   La nouvelle source sortante est créée et la page **Connexions** apparaît.

# Ingestion de données pour les connexions existantes
<a name="ingesting-data"></a>

Voici les options d'ingestion si vous utilisez Amazon S3 :
+ **Ajouter : pour** ajouter les données d'ingestion ou pour une ingestion incrémentielle, tous les fichiers du chemin source sont combinés dans un seul ensemble de données avant d'être ingérés dans le lac de données. Cette méthode garantit l'exhaustivité des données pour les fichiers s'étendant sur plusieurs jours. Lorsque vous supprimez des fichiers du chemin source de votre compartiment S3, les fichiers uniquement disponibles dans le chemin source sont ingérés dans le lac de données.

   L'option *Ajouter garantit* que vos fichiers dans Amazon S3 sont répliqués et synchronisés dans le lac de données.
+ **Réécriture** : lors du remplacement, les fichiers de données sont ingérés dans le lac de données au fur et à mesure de leur mise à jour dans le chemin source. Chaque nouveau fichier remplace entièrement le jeu de données.
**Note**  
Vous pouvez supprimer les flux source et les données correspondantes dans les *options Ajouter et* *Remplacer*.

Les options d'opération d'ingestion pour *EDI*, *SAP S/4 HANA et *SAP** ECC sont les suivantes :
+ **Mettre à** jour : met à jour les lignes de données existantes en utilisant les mêmes champs que ceux utilisés dans la recette.
+ **Remplacer** — Supprime les données existantes téléchargées et les remplace par les nouvelles données entrantes.
+ **Supprimer** — Supprime une ou plusieurs lignes de données à l'aide de la ligne principale IDs.

**Pour démarrer l'ingestion des données, suivez la procédure ci-dessous.**

1. Sur le AWS Supply Chain tableau de bord, dans le volet de navigation de gauche, choisissez **Data Lake**.

1. Dans l'onglet **Ingestion de données**, sélectionnez **Connections**.

1. Sélectionnez la connexion pour ingérer les données, puis choisissez **Data Ingestion**.

   La page **Configuration de l'ingestion de données** s'affiche.

1. Choisissez **Démarrer**.

1. Sur la page **Détails de l'ingestion des données**, indiquez si vous souhaitez *mettre à jour*, *remplacer* ou *supprimer* les données. Copiez le chemin Amazon S3 en choisissant **Copier**.

# Chargement de données dans un compartiment Amazon S3
<a name="manually-uploading-data"></a>

**Note**  
Suivez cette procédure pour que le connecteur SAP ERP Component Central (ECC) et le connecteur EDI ingèrent manuellement les données dans le compartiment S3 associé à l' AWS Supply Chain instance. Si vous utilisez l'API Amazon S3 pour charger des données[Connexion à SAP ECC 6.0](connecting-sap-ecc.md), consultez ou[Connexion à un EDI](connecting-edi.md).

Pour charger des données dans un compartiment Amazon S3 associé à l' AWS Supply Chain instance, suivez la procédure suivante.

1. Sur le AWS Supply Chain tableau de bord, dans la barre de navigation de gauche, choisissez **Open Connections**.

1. Sélectionnez la connexion requise.

1. Sur la page des **détails de connexion**, notez le chemin Amazon S3 ou choisissez **Copier** pour copier le chemin Amazon S3.

1. Ouvrez la console Amazon S3 à [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/)et connectez-vous.

1. Sous **Buckets**, sélectionnez le nom du compartiment (le premier nom du chemin Amazon S3) dans lequel vous souhaitez télécharger vos dossiers ou fichiers.

1. Accédez au chemin Amazon S3 que vous avez copié depuis le AWS Supply Chain tableau de bord.

1. Choisissez **Charger**.  
![\[Chargement de données dans un compartiment Amazon S3\]](http://docs.aws.amazon.com/fr_fr/aws-supply-chain/latest/userguide/images/S3_console.png)