

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Importation de données FHIR avec AWS HealthLake
<a name="importing-fhir-data"></a>

Après avoir créé un magasin de HealthLake données, l'étape suivante consiste à importer des fichiers depuis un compartiment Amazon Simple Storage Service (S3). Vous pouvez démarrer une tâche d'importation FHIR en utilisant le AWS Management Console AWS CLI, ou AWS SDKs. Utilisez AWS HealthLake des actions natives pour démarrer, décrire et répertorier les tâches d'importation FHIR.

**Important**  
HealthLake prend en charge la [spécification FHIR R4](https://hl7.org/fhir/R4/index.html) pour l'échange de données sur les soins de santé. Si nécessaire, vous pouvez travailler avec un [AWS HealthLake partenaire](https://aws.amazon.com/healthlake/partners/) pour convertir vos données de santé au format FHIR R4 avant de les importer.

Lorsque vous démarrez une tâche d'importation FHIR, vous spécifiez un emplacement d'entrée de compartiment Amazon S3, un emplacement de sortie de compartiment Amazon S3 (pour les résultats du traitement de la tâche), un rôle IAM qui donne HealthLake accès à vos compartiments Amazon S3 et une clé détenue ou AWS détenue par le client. AWS Key Management Service Pour de plus amples informations, veuillez consulter [Configuration des autorisations pour les tâches d'importation](getting-started-setting-up.md#setting-up-import-permissions).

**Note**  
Vous pouvez mettre en file d'attente les tâches d'importation. Les tâches d'importation asynchrones sont traitées selon le mode FIFO (First In First Out). Vous pouvez mettre les tâches en file d'attente de la même manière que vous commencez à importer des tâches. Si l'un d'entre eux est en cours, il sera simplement mis en file d'attente. Vous pouvez créer, lire, mettre à jour ou supprimer des ressources FHIR pendant qu'une tâche d'importation est en cours.

HealthLake génère un `manifest.json` fichier pour chaque tâche d'importation FHIR. Le fichier décrit à la fois les réussites et les échecs d'une tâche d'importation FHIR. HealthLake envoie le `manifest.json` fichier dans le compartiment Amazon S3 spécifié lors du démarrage d'une tâche d'importation FHIR. Les fichiers journaux sont organisés en deux dossiers, nommés `SUCCESS` et`FAILURE`. Utilisez le `manifest.json` fichier comme première étape pour résoudre les problèmes liés à l'échec d'une tâche d'importation, car il fournit des informations détaillées sur chaque fichier.

```
{
    "inputDataConfig": {
        "s3Uri": "s3://amzn-s3-demo-source-bucket/healthlake-input/invalidInput/"
    },
    "outputDataConfig": {
        "s3Uri": "s3://amzn-s3-demo-logging-bucket/32839038a2f47f17c2fe0f53f0c3a0ba-FHIR_IMPORT-19dd7bb7bcc8ee12a09bf6d322744a3d/",
        "encryptionKeyID": "arn:aws:kms:us-west-2:123456789012:key/fbbbfee3-20b3-42a5-a99d-c48c655ed545"
    },
    "successOutput": {
        "successOutputS3Uri": "s3://amzn-s3-demo-logging-bucket/32839038a2f47f17c2fe0f53f0c3a0ba-FHIR_IMPORT-19dd7bb7bcc8ee12a09bf6d322744a3d/SUCCESS/"
    },
    "failureOutput": {
        "failureOutputS3Uri": "s3://amzn-s3-demo-logging-bucket/32839038a2f47f17c2fe0f53f0c3a0ba-FHIR_IMPORT-19dd7bb7bcc8ee12a09bf6d322744a3d/FAILURE/"
    },
    "numberOfScannedFiles": 1,
    "numberOfFilesImported": 1,
    "sizeOfScannedFilesInMB": 0.023627,
    "sizeOfDataImportedSuccessfullyInMB": 0.011232,
    "numberOfResourcesScanned": 9,
    "numberOfResourcesImportedSuccessfully": 4,
    "numberOfResourcesWithCustomerError": 5,
    "numberOfResourcesWithServerError": 0
}
```

**Configuration du niveau de validation pour les importations**  


Lorsque vous démarrez une tâche d'importation FHIR, vous pouvez éventuellement spécifier un `ValidationLevel` à appliquer à chaque ressource. AWS HealthLake prend actuellement en charge les niveaux de validation suivants :
+ `strict`: Les ressources sont validées en fonction de l'élément de profil de la ressource ou de la spécification R4 si aucun profil n'est présent. Il s'agit du niveau de validation par défaut pour AWS HealthLake.
+ `structure-only`: Les ressources sont validées par rapport à R4, en ignorant les profils référencés.
+ `minimal`: Les ressources sont validées de manière minimale, sans tenir compte de certaines règles R4. Les ressources qui échouent aux vérifications de structure requises search/analytics seront mises à jour pour inclure un avertissement d'audit.

Lors de l'importation à l'aide du niveau de `minimal` validation, des fichiers journaux supplémentaires peuvent être générés dans un dossier nommé`SUCCESS_WITH_SEARCH_VALIDATION_FAILURES`. Les ressources contenues dans les fichiers journaux de ce dossier ont été ingérées dans votre banque de données malgré l'échec des contrôles de validation liés à la recherche. Cela implique que certains aspects de votre ressource FHIR n'étaient pas valides selon FHIR et que les champs mal formés peuvent ne pas être consultables. Ces ressources seront accompagnées d'`extension`une annexe décrivant ladite défaillance.

**Topics**
+ [Démarrage d'une tâche d'importation](importing-fhir-data-start.md)
+ [Obtenir les propriétés des tâches d'importation](importing-fhir-data-describe.md)
+ [Liste des tâches d'importation](importing-fhir-data-list.md)

# Démarrage d'une tâche d'importation FHIR
<a name="importing-fhir-data-start"></a>

`StartFHIRImportJob`À utiliser pour démarrer une tâche d'importation FHIR dans un magasin de HealthLake données. Les menus suivants fournissent une procédure AWS Management Console et des exemples de code pour le AWS CLI et AWS SDKs. Pour plus d’informations, consultez [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_StartFHIRImportJob.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_StartFHIRImportJob.html) dans la *Référence d’API AWS HealthLake *.

**Important**  
HealthLake prend en charge la [spécification FHIR R4](https://hl7.org/fhir/R4/index.html) pour l'échange de données sur les soins de santé. Si nécessaire, vous pouvez travailler avec un [AWS HealthLake partenaire](https://aws.amazon.com/healthlake/partners/) pour convertir vos données de santé au format FHIR R4 avant de les importer.

**Pour démarrer une tâche d’importation FHIR**  
Choisissez un menu en fonction de vos préférences d'accès à AWS HealthLake.

## AWS CLI et SDKs
<a name="start-import-job-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**Pour démarrer une tâche d’importation FHIR**  
L'`start-fhir-import-job`exemple suivant montre comment démarrer une tâche d'importation FHIR à l'aide AWS HealthLake de.  

```
aws healthlake start-fhir-import-job \
    --input-data-config S3Uri="s3://(Bucket Name)/(Prefix Name)/" \
    --job-output-data-config '{"S3Configuration": {"S3Uri":"s3://(Bucket Name)/(Prefix Name)/","KmsKeyId":"arn:aws:kms:us-east-1:012345678910:key/d330e7fc-b56c-4216-a250-f4c43ef46e83"}}' \
    --datastore-id (Data store ID) \
    --data-access-role-arn "arn:aws:iam::(AWS Account ID):role/(Role Name)"
```
Sortie :  

```
{
    "DatastoreId": "(Data store ID)",
    "JobStatus": "SUBMITTED",
    "JobId": "c145fbb27b192af392f8ce6e7838e34f"
}
```
Pour plus d'informations, consultez la section [Importation de fichiers dans un magasin de données FHIR](https://docs.aws.amazon.com/healthlake/latest/devguide/import-datastore.html) dans le *Guide du AWS HealthLake développeur*.  
+  Pour plus de détails sur l'API, consultez [Start FHIRImport Job](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/start-fhir-import-job.html) dans *AWS CLI Command Reference*. 

------
#### [ Python ]

**Kit SDK for Python (Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def start_fhir_import_job(
        self,
        job_name: str,
        datastore_id: str,
        input_s3_uri: str,
        job_output_s3_uri: str,
        kms_key_id: str,
        data_access_role_arn: str,
    ) -> dict[str, str]:
        """
        Starts a HealthLake import job.
        :param job_name: The import job name.
        :param datastore_id: The data store ID.
        :param input_s3_uri: The input S3 URI.
        :param job_output_s3_uri: The job output S3 URI.
        :param kms_key_id: The KMS key ID associated with the output S3 bucket.
        :param data_access_role_arn: The data access role ARN.
        :return: The import job.
        """
        try:
            response = self.health_lake_client.start_fhir_import_job(
                JobName=job_name,
                InputDataConfig={"S3Uri": input_s3_uri},
                JobOutputDataConfig={
                    "S3Configuration": {
                        "S3Uri": job_output_s3_uri,
                        "KmsKeyId": kms_key_id,
                    }
                },
                DataAccessRoleArn=data_access_role_arn,
                DatastoreId=datastore_id,
            )
            return response
        except ClientError as err:
            logger.exception(
                "Couldn't start import job. Here's why %s",
                err.response["Error"]["Message"],
            )
            raise
```
+  Pour plus de détails sur l'API, consultez [le manuel de référence de l'API Start FHIRImport Job](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/StartFHIRImportJob) in *AWS SDK for Python (Boto3*). 
 Il y en a plus à ce sujet GitHub. Trouvez l’exemple complet et découvrez comment le configurer et l’exécuter dans le [référentiel d’exemples de code AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples). 

------
#### [ SAP ABAP ]

**Kit SDK pour SAP ABAP**  
 Il y en a plus à ce sujet GitHub. Trouvez l’exemple complet et découvrez comment le configurer et l’exécuter dans le [référentiel d’exemples de code AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples). 

```
    TRY.
        " iv_job_name = 'MyImportJob'
        " iv_input_s3_uri = 's3://my-bucket/import/data.ndjson'
        " iv_job_output_s3_uri = 's3://my-bucket/import/output/'
        " iv_kms_key_id = 'arn:aws:kms:us-east-1:123456789012:key/12345678-1234-1234-1234-123456789012'
        " iv_data_access_role_arn = 'arn:aws:iam::123456789012:role/HealthLakeImportRole'
        oo_result = lo_hll->startfhirimportjob(
          iv_jobname = iv_job_name
          io_inputdataconfig = NEW /aws1/cl_hllinputdataconfig( iv_s3uri = iv_input_s3_uri )
          io_joboutputdataconfig = NEW /aws1/cl_hlloutputdataconfig(
            io_s3configuration = NEW /aws1/cl_hlls3configuration(
              iv_s3uri = iv_job_output_s3_uri
              iv_kmskeyid = iv_kms_key_id
            )
          )
          iv_dataaccessrolearn = iv_data_access_role_arn
          iv_datastoreid = iv_datastore_id
        ).
        DATA(lv_job_id) = oo_result->get_jobid( ).
        MESSAGE |Import job started with ID { lv_job_id }.| TYPE 'I'.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        DATA(lv_error) = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
      CATCH /aws1/cx_hllthrottlingex INTO DATA(lo_throttling_ex).
        lv_error = |Throttling error: { lo_throttling_ex->av_err_code }-{ lo_throttling_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_throttling_ex.
      CATCH /aws1/cx_hllaccessdeniedex INTO DATA(lo_access_ex).
        lv_error = |Access denied: { lo_access_ex->av_err_code }-{ lo_access_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_access_ex.
    ENDTRY.
```
+  Pour plus de détails sur l'API, voir [Start FHIRImport Job](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html) in *AWS SDK for SAP ABAP API reference*. 

------

**Exemple de disponibilité**  
Vous n’avez pas trouvé ce dont vous avez besoin ? Demandez un exemple de code à l'aide du lien **Fournir des commentaires** dans la barre latérale droite de cette page.

## AWS Console
<a name="start-import-job-console"></a>

1. Connectez-vous à la page [Data stores](https://console.aws.amazon.com/healthlake/home#/list-datastores) de la HealthLake console.

1. Choisissez un magasin de données.

1. Choisissez **Importer**.

   La page **d'importation** s'ouvre.

1. Dans la section **Données d'entrée**, entrez les informations suivantes :
   + **Emplacement des données d'entrée dans Amazon S3**

1. Dans la section **Importer des fichiers de sortie**, entrez les informations suivantes :
   + **Emplacement des fichiers de sortie d'importation dans Amazon S3**
   + **Chiffrement des fichiers de sortie d'importation**

1. Dans la section **Autorisations d'accès**, choisissez **Utiliser un rôle de service IAM existant** et sélectionnez le rôle dans le menu **Nom du rôle de service** ou choisissez **Créer un rôle IAM**.

1. Choisissez **Importer les données**.
**Note**  
Lors de l'importation, choisissez **Copier l'identifiant de la tâche** sur la bannière en haut de la page. Vous pouvez utiliser le [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRImportJob.html#HealthLake-DescribeFHIRImportJob-request-JobId](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRImportJob.html#HealthLake-DescribeFHIRImportJob-request-JobId)pour demander les propriétés de la tâche d'importation à l'aide du AWS CLI. Pour de plus amples informations, veuillez consulter [Obtenir les propriétés des tâches d'importation FHIR](importing-fhir-data-describe.md).

# Obtenir les propriétés des tâches d'importation FHIR
<a name="importing-fhir-data-describe"></a>

`DescribeFHIRImportJob`À utiliser pour obtenir les propriétés de la tâche d'importation FHIR. Les menus suivants fournissent une procédure AWS Management Console et des exemples de code pour le AWS CLI et AWS SDKs. Pour plus d’informations, consultez [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRImportJob.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRImportJob.html) dans la *Référence d’API AWS HealthLake *.

**Pour obtenir les propriétés de la tâche d'importation FHIR**  
Choisissez un menu en fonction de vos préférences d'accès à AWS HealthLake.

## AWS CLI et SDKs
<a name="describe-job-import-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**Pour décrire une tâche d’importation FHIR**  
L'`describe-fhir-import-job`exemple suivant montre comment apprendre les propriétés d'une tâche d'importation FHIR à l'aide AWS HealthLake de.  

```
aws healthlake describe-fhir-import-job \
    --datastore-id (Data store ID) \
    --job-id c145fbb27b192af392f8ce6e7838e34f
```
Sortie :  

```
{
    "ImportJobProperties": {
    "InputDataConfig": {
        "S3Uri": "s3://(Bucket Name)/(Prefix Name)/"
        { "arrayitem2": 2 }
    },
    "DataAccessRoleArn": "arn:aws:iam::(AWS Account ID):role/(Role Name)",
    "JobStatus": "COMPLETED",
    "JobId": "c145fbb27b192af392f8ce6e7838e34f",
    "SubmitTime": 1606272542.161,
    "EndTime": 1606272609.497,
    "DatastoreId": "(Data store ID)"
    }
}
```
Pour plus d'informations, consultez la section [Importation de fichiers dans un magasin de données FHIR](https://docs.aws.amazon.com/healthlake/latest/devguide/import-datastore.html) dans le *Guide du AWS HealthLake développeur*.  
+  Pour plus de détails sur l'API, voir [FHIRImportDescribe Job](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/describe-fhir-import-job.html) dans *AWS CLI Command Reference*. 

------
#### [ Python ]

**Kit SDK for Python (Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def describe_fhir_import_job(
        self, datastore_id: str, job_id: str
    ) -> dict[str, any]:
        """
        Describes a HealthLake import job.
        :param datastore_id: The data store ID.
        :param job_id: The import job ID.
        :return: The import job description.
        """
        try:
            response = self.health_lake_client.describe_fhir_import_job(
                DatastoreId=datastore_id, JobId=job_id
            )
            return response["ImportJobProperties"]
        except ClientError as err:
            logger.exception(
                "Couldn't describe import job with ID %s. Here's why %s",
                job_id,
                err.response["Error"]["Message"],
            )
            raise
```
+  Pour plus de détails sur l'API, consultez le [manuel de référence de l'API Describe FHIRImport Job](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/DescribeFHIRImportJob) in *AWS SDK for Python (Boto3*). 
 Il y en a plus à ce sujet GitHub. Trouvez l’exemple complet et découvrez comment le configurer et l’exécuter dans le [référentiel d’exemples de code AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples). 

------
#### [ SAP ABAP ]

**Kit SDK pour SAP ABAP**  
 Il y en a plus à ce sujet GitHub. Trouvez l’exemple complet et découvrez comment le configurer et l’exécuter dans le [référentiel d’exemples de code AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples). 

```
    TRY.
        " iv_datastore_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        " iv_job_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        oo_result = lo_hll->describefhirimportjob(
          iv_datastoreid = iv_datastore_id
          iv_jobid = iv_job_id
        ).
        DATA(lo_import_job_properties) = oo_result->get_importjobproperties( ).
        IF lo_import_job_properties IS BOUND.
          DATA(lv_job_status) = lo_import_job_properties->get_jobstatus( ).
          MESSAGE |Import job status: { lv_job_status }.| TYPE 'I'.
        ENDIF.
      CATCH /aws1/cx_hllresourcenotfoundex INTO DATA(lo_notfound_ex).
        DATA(lv_error) = |Resource not found: { lo_notfound_ex->av_err_code }-{ lo_notfound_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_notfound_ex.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        lv_error = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
    ENDTRY.
```
+  Pour plus de détails sur l'API, consultez la section de référence de l'*API [Describe FHIRImport Job](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html) in AWS SDK for SAP ABAP*. 

------

**Exemple de disponibilité**  
Vous n’avez pas trouvé ce dont vous avez besoin ? Demandez un exemple de code à l'aide du lien **Fournir des commentaires** dans la barre latérale droite de cette page.

## AWS Console
<a name="describe-import-job-console"></a>

**Note**  
Les informations relatives aux tâches d'importation FHIR ne sont pas disponibles sur la HealthLake console. Utilisez plutôt le AWS CLI with `DescribeFHIRImportJob` pour demander des propriétés de tâche d'importation telles que [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ImportJobProperties.html#HealthLake-Type-ImportJobProperties-JobStatus](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ImportJobProperties.html#HealthLake-Type-ImportJobProperties-JobStatus). Pour plus d'informations, reportez-vous à l' AWS CLI exemple présenté sur cette page.

# Liste des tâches d'importation FHIR
<a name="importing-fhir-data-list"></a>

Permet `ListFHIRImportJobs` de répertorier les tâches d'importation FHIR pour un magasin de HealthLake données actif. Les menus suivants fournissent une procédure AWS Management Console et des exemples de code pour le AWS CLI et AWS SDKs. Pour plus d’informations, consultez [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ListFHIRImportJobs.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ListFHIRImportJobs.html) dans la *Référence d’API AWS HealthLake *.

**Pour répertorier les tâches d'importation FHIR**  
Choisissez un menu en fonction de vos préférences d'accès à AWS HealthLake.

## AWS CLI et SDKs
<a name="list-import-jobs-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**Pour répertorier toutes les tâches d’importation FHIR**  
L’exemple `list-fhir-import-jobs` suivant montre comment utiliser la commande pour afficher une liste de toutes les tâches d’importation associées à un compte.  

```
aws healthlake list-fhir-import-jobs \
    --datastore-id (Data store ID) \
    --submitted-before (DATE like 2024-10-13T19:00:00Z) \
    --submitted-after (DATE like 2020-10-13T19:00:00Z ) \
    --job-name "FHIR-IMPORT" \
    --job-status SUBMITTED  \
    -max-results (Integer between 1 and 500)
```
Sortie :  

```
{
    "ImportJobPropertiesList": [
        {
            "JobId": "c0fddbf76f238297632d4aebdbfc9ddf",
            "JobStatus": "COMPLETED",
            "SubmitTime": "2024-11-20T10:08:46.813000-05:00",
            "EndTime": "2024-11-20T10:10:09.093000-05:00",
            "DatastoreId": "(Data store ID)",
            "InputDataConfig": {
                "S3Uri": "s3://(Bucket Name)/(Prefix Name)/"
            },
            "JobOutputDataConfig": {
                "S3Configuration": {
                    "S3Uri": "s3://(Bucket Name)/import/6407b9ae4c2def3cb6f1a46a0c599ec0-FHIR_IMPORT-c0fddbf76f238297632d4aebdbfc9ddf/",
                    "KmsKeyId": "arn:aws:kms:us-east-1:123456789012:key/b7f645cb-e564-4981-8672-9e012d1ff1a0"
                }
            },
            "JobProgressReport": {
                "TotalNumberOfScannedFiles": 1,
                "TotalSizeOfScannedFilesInMB": 0.001798,
                "TotalNumberOfImportedFiles": 1,
                "TotalNumberOfResourcesScanned": 1,
                "TotalNumberOfResourcesImported": 1,
                "TotalNumberOfResourcesWithCustomerError": 0,
                "TotalNumberOfFilesReadWithCustomerError": 0,
                "Throughput": 0.0
            },
            "DataAccessRoleArn": "arn:aws:iam::(AWS Account ID):role/(Role Name)"
        }
    ]
}
```
Pour plus d'informations, consultez la section [Importation de fichiers dans le magasin de données FHIR](https://docs.aws.amazon.com/healthlake/latest/devguide/import-examples.html) dans le guide du AWS HealthLake développeur.  
+  Pour plus de détails sur l'API, consultez la section [FHIRImportRépertorier les tâches](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/list-fhir-import-jobs.html) dans *AWS CLI Command Reference*. 

------
#### [ Python ]

**Kit SDK for Python (Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def list_fhir_import_jobs(
        self,
        datastore_id: str,
        job_name: str = None,
        job_status: str = None,
        submitted_before: datetime = None,
        submitted_after: datetime = None,
    ) -> list[dict[str, any]]:
        """
        Lists HealthLake import jobs satisfying the conditions.
        :param datastore_id: The data store ID.
        :param job_name: The import job name.
        :param job_status: The import job status.
        :param submitted_before: The import job submitted before the specified date.
        :param submitted_after: The import job submitted after the specified date.
        :return: A list of import jobs.
        """
        try:
            parameters = {"DatastoreId": datastore_id}
            if job_name is not None:
                parameters["JobName"] = job_name
            if job_status is not None:
                parameters["JobStatus"] = job_status
            if submitted_before is not None:
                parameters["SubmittedBefore"] = submitted_before
            if submitted_after is not None:
                parameters["SubmittedAfter"] = submitted_after
            next_token = None
            jobs = []
            # Loop through paginated results.
            while True:
                if next_token is not None:
                    parameters["NextToken"] = next_token
                response = self.health_lake_client.list_fhir_import_jobs(**parameters)
                jobs.extend(response["ImportJobPropertiesList"])
                if "NextToken" in response:
                    next_token = response["NextToken"]
                else:
                    break
            return jobs
        except ClientError as err:
            logger.exception(
                "Couldn't list import jobs. Here's why %s",
                err.response["Error"]["Message"],
            )
            raise
```
+  Pour plus de détails sur l'API, consultez le [manuel de référence de l'API List FHIRImport Jobs](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/ListFHIRImportJobs) in *AWS SDK for Python (Boto3*). 
 Il y en a plus à ce sujet GitHub. Trouvez l’exemple complet et découvrez comment le configurer et l’exécuter dans le [référentiel d’exemples de code AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples). 

------
#### [ SAP ABAP ]

**Kit SDK pour SAP ABAP**  
 Il y en a plus à ce sujet GitHub. Trouvez l’exemple complet et découvrez comment le configurer et l’exécuter dans le [référentiel d’exemples de code AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples). 

```
    TRY.
        " iv_datastore_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        IF iv_submitted_after IS NOT INITIAL.
          oo_result = lo_hll->listfhirimportjobs(
            iv_datastoreid = iv_datastore_id
            iv_submittedafter = iv_submitted_after
          ).
        ELSE.
          oo_result = lo_hll->listfhirimportjobs(
            iv_datastoreid = iv_datastore_id
          ).
        ENDIF.
        DATA(lt_import_jobs) = oo_result->get_importjobpropertieslist( ).
        DATA(lv_job_count) = lines( lt_import_jobs ).
        MESSAGE |Found { lv_job_count } import job(s).| TYPE 'I'.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        DATA(lv_error) = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
      CATCH /aws1/cx_hllresourcenotfoundex INTO DATA(lo_notfound_ex).
        lv_error = |Resource not found: { lo_notfound_ex->av_err_code }-{ lo_notfound_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_notfound_ex.
    ENDTRY.
```
+  Pour plus de détails sur l'API, consultez la section [FHIRImportRépertorier les tâches](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html) dans le *AWS SDK pour la référence de l'API SAP ABAP*. 

------

**Exemple de disponibilité**  
Vous n’avez pas trouvé ce dont vous avez besoin ? Demandez un exemple de code à l'aide du lien **Fournir des commentaires** dans la barre latérale droite de cette page.

## AWS Console
<a name="list-import-jobs-console"></a>

**Note**  
Les informations relatives aux tâches d'importation FHIR ne sont pas disponibles sur la HealthLake console. Utilisez plutôt le AWS CLI with `ListFHIRImportJobs` pour répertorier toutes les tâches d'importation FHIR. Pour plus d'informations, reportez-vous à l' AWS CLI exemple présenté sur cette page.