

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Exportation de données FHIR avec AWS HealthLake
<a name="exporting-fhir-data"></a>

Utilisez AWS HealthLake des actions natives pour démarrer, décrire et répertorier les tâches d'exportation FHIR. Vous pouvez mettre en file d'attente les tâches d'exportation. Les tâches d'exportation asynchrones sont traitées selon le mode FIFO (First In First Out). Vous pouvez mettre les tâches en file d'attente de la même manière que vous commencez à exporter des tâches. Si l'un d'entre eux est en cours, il sera simplement mis en file d'attente. Vous pouvez créer, lire, mettre à jour ou supprimer des ressources FHIR pendant qu'une tâche d'exportation est en cours.

**Note**  
Vous pouvez également exporter des données FHIR depuis un magasin de HealthLake données à l'aide de l'opération FHIR `$export` R4. Pour de plus amples informations, veuillez consulter [Exporter HealthLake des données avec FHIR `$export`](reference-fhir-operations-export.md).

**Topics**
+ [Démarrage d'une tâche d'exportation](exporting-fhir-data-start.md)
+ [Obtenir les propriétés des tâches d'exportation](exporting-fhir-data-describe.md)
+ [Liste des offres d'exportation](exporting-fhir-data-list.md)

# Démarrage d'une tâche d'exportation FHIR
<a name="exporting-fhir-data-start"></a>

`StartFHIRExportJob`À utiliser pour démarrer une tâche d'exportation FHIR à partir d'un magasin de HealthLake données. Les menus suivants fournissent une procédure AWS Management Console et des exemples de code pour le AWS CLI et AWS SDKs. Pour plus d’informations, consultez [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_StartFHIRExportJob.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_StartFHIRExportJob.html) dans la *Référence d’API AWS HealthLake *.

**Remarque**  
HealthLake prend en charge la [spécification FHIR R4](https://hl7.org/fhir/R4/index.html) pour l'échange de données sur les soins de santé. Par conséquent, toutes les données de santé sont exportées au format FHIR R4.

**Pour démarrer une tâche d’exportation FHIR**  
Choisissez un menu en fonction de vos préférences d'accès à AWS HealthLake.

## AWS CLI et SDKs
<a name="start-export-job-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**Pour démarrer une tâche d’exportation FHIR**  
L'`start-fhir-export-job`exemple suivant montre comment démarrer une tâche d'exportation FHIR à l'aide AWS HealthLake de.  

```
aws healthlake start-fhir-export-job \
    --output-data-config '{"S3Configuration": {"S3Uri":"s3://(Bucket Name)/(Prefix Name)/","KmsKeyId":"arn:aws:kms:us-east-1:012345678910:key/d330e7fc-b56c-4216-a250-f4c43ef46e83"}}' \
    --datastore-id (Data store ID) \
    --data-access-role-arn arn:aws:iam::(AWS Account ID):role/(Role Name)
```
Sortie :  

```
{
    "DatastoreId": "(Data store ID)",
    "JobStatus": "SUBMITTED",
    "JobId": "9b9a51943afaedd0a8c0c26c49135a31"
}
```
Pour plus d'informations, consultez la section [Exportation de fichiers depuis un magasin de données FHIR](https://docs.aws.amazon.com/healthlake/latest/devguide/export-datastore.html) dans le *Guide du AWS HealthLake développeur*.  
+  Pour plus de détails sur l'API, consultez [Start FHIRExport Job](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/start-fhir-export-job.html) dans *AWS CLI Command Reference*. 

------
#### [ Python ]

**Kit SDK for Python (Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def start_fhir_export_job(
        self,
        job_name: str,
        datastore_id: str,
        output_s3_uri: str,
        kms_key_id: str,
        data_access_role_arn: str,
    ) -> dict[str, str]:
        """
        Starts a HealthLake export job.
        :param job_name: The export job name.
        :param datastore_id: The data store ID.
        :param output_s3_uri: The output S3 URI.
        :param kms_key_id: The KMS key ID associated with the output S3 bucket.
        :param data_access_role_arn: The data access role ARN.
        :return: The export job.
        """
        try:
            response = self.health_lake_client.start_fhir_export_job(
                OutputDataConfig={
                    "S3Configuration": {"S3Uri": output_s3_uri, "KmsKeyId": kms_key_id}
                },
                DataAccessRoleArn=data_access_role_arn,
                DatastoreId=datastore_id,
                JobName=job_name,
            )

            return response
        except ClientError as err:
            logger.exception(
                "Couldn't start export job. Here's why %s",
                err.response["Error"]["Message"],
            )
            raise
```
+  Pour plus de détails sur l'API, consultez [le manuel de référence de l'API Start FHIRExport Job](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/StartFHIRExportJob) in *AWS SDK for Python (Boto3*). 
 Il y en a plus à ce sujet GitHub. Trouvez l’exemple complet et découvrez comment le configurer et l’exécuter dans le [référentiel d’exemples de code AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples). 

------
#### [ SAP ABAP ]

**Kit SDK pour SAP ABAP**  
 Il y en a plus à ce sujet GitHub. Trouvez l’exemple complet et découvrez comment le configurer et l’exécuter dans le [référentiel d’exemples de code AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples). 

```
    TRY.
        " iv_job_name = 'MyExportJob'
        " iv_output_s3_uri = 's3://my-bucket/export/output/'
        " iv_kms_key_id = 'arn:aws:kms:us-east-1:123456789012:key/12345678-1234-1234-1234-123456789012'
        " iv_data_access_role_arn = 'arn:aws:iam::123456789012:role/HealthLakeExportRole'
        oo_result = lo_hll->startfhirexportjob(
          iv_jobname = iv_job_name
          io_outputdataconfig = NEW /aws1/cl_hlloutputdataconfig(
            io_s3configuration = NEW /aws1/cl_hlls3configuration(
              iv_s3uri = iv_output_s3_uri
              iv_kmskeyid = iv_kms_key_id
            )
          )
          iv_dataaccessrolearn = iv_data_access_role_arn
          iv_datastoreid = iv_datastore_id
        ).
        DATA(lv_job_id) = oo_result->get_jobid( ).
        MESSAGE |Export job started with ID { lv_job_id }.| TYPE 'I'.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        DATA(lv_error) = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
      CATCH /aws1/cx_hllthrottlingex INTO DATA(lo_throttling_ex).
        lv_error = |Throttling error: { lo_throttling_ex->av_err_code }-{ lo_throttling_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_throttling_ex.
      CATCH /aws1/cx_hllaccessdeniedex INTO DATA(lo_access_ex).
        lv_error = |Access denied: { lo_access_ex->av_err_code }-{ lo_access_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_access_ex.
    ENDTRY.
```
+  Pour plus de détails sur l'API, voir [Start FHIRExport Job](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html) in *AWS SDK for SAP ABAP API reference*. 

------

**Exemple de disponibilité**  
Vous n’avez pas trouvé ce dont vous avez besoin ? Demandez un exemple de code à l'aide du lien **Fournir des commentaires** dans la barre latérale droite de cette page.

## AWS Console
<a name="start-export-job-console"></a>

1. Connectez-vous à la page [Data stores](https://console.aws.amazon.com/healthlake/home#/list-datastores) de la HealthLake console.

1. Choisissez un magasin de données.

1. Cliquez sur **Exporter**.

   La page **d'exportation** s'ouvre.

1. Dans la section **Données de sortie**, entrez les informations suivantes :
   + **Emplacement des données de sortie dans Amazon S3**
   + **Chiffrement de sortie**

1. Dans la section **Autorisations d'accès**, choisissez **Utiliser un rôle de service IAM existant** et sélectionnez le rôle dans le menu **Nom du rôle** ou choisissez **Créer un rôle IAM**.

1. Choisissez **Export data** (Exporter des données).
**Note**  
Lors de l'exportation, choisissez **Copier l'identifiant de la tâche** sur la bannière en haut de la page. Vous pouvez utiliser le [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRExportJob.html#HealthLake-DescribeFHIRExportJob-request-JobId](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRExportJob.html#HealthLake-DescribeFHIRExportJob-request-JobId)pour demander les propriétés de la tâche d'exportation à l'aide du AWS CLI. Pour de plus amples informations, veuillez consulter [Obtenir les propriétés des tâches d'exportation FHIR](exporting-fhir-data-describe.md).

# Obtenir les propriétés des tâches d'exportation FHIR
<a name="exporting-fhir-data-describe"></a>

`DescribeFHIRExportJob`À utiliser pour obtenir les propriétés des tâches d'exportation à partir d'un magasin de HealthLake données. Les menus suivants fournissent une procédure AWS Management Console et des exemples de code pour le AWS CLI et AWS SDKs. Pour plus d’informations, consultez [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRExportJob.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRExportJob.html) dans la *Référence d’API AWS HealthLake *.

**Remarque**  
HealthLake prend en charge la [spécification FHIR R4](https://hl7.org/fhir/R4/index.html) pour l'échange de données sur les soins de santé. Par conséquent, toutes les données de santé sont exportées au format FHIR R4.

**Pour décrire une tâche d’exportation FHIR**  
Choisissez un menu en fonction de vos préférences d'accès à AWS HealthLake.

## AWS CLI et SDKs
<a name="describe-export-job-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**Pour décrire une tâche d’exportation FHIR**  
L'`describe-fhir-export-job`exemple suivant montre comment rechercher les propriétés d'une tâche d'exportation FHIR dans AWS HealthLake.  

```
aws healthlake describe-fhir-export-job \
    --datastore-id (Data store ID) \
    --job-id 9b9a51943afaedd0a8c0c26c49135a31
```
Sortie :  

```
{
    "ExportJobProperties": {
        "DataAccessRoleArn": "arn:aws:iam::(AWS Account ID):role/(Role Name)",
        "JobStatus": "IN_PROGRESS",
        "JobId": "9009813e9d69ba7cf79bcb3468780f16",
        "SubmitTime": "2024-11-20T11:31:46.672000-05:00",
        "EndTime": "2024-11-20T11:34:01.636000-05:00",
        "OutputDataConfig": {
            "S3Configuration": {
            "S3Uri": "s3://(Bucket Name)/(Prefix Name)/",
            "KmsKeyId": "arn:aws:kms:us-east-1:012345678910:key/d330e7fc-b56c-4216-a250-f4c43ef46e83"
        }

        },
        "DatastoreId": "(Data store ID)"
    }
}
```
Pour plus d'informations, consultez la section [Exportation de fichiers depuis un magasin de données FHIR](https://docs.aws.amazon.com/healthlake/latest/devguide/export-datastore.html) dans le *Guide du AWS HealthLake développeur*.  
+  Pour plus de détails sur l'API, voir [FHIRExportDescribe Job](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/describe-fhir-export-job.html) dans *AWS CLI Command Reference*. 

------
#### [ Python ]

**Kit SDK for Python (Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def describe_fhir_export_job(
        self, datastore_id: str, job_id: str
    ) -> dict[str, any]:
        """
        Describes a HealthLake export job.
        :param datastore_id: The data store ID.
        :param job_id: The export job ID.
        :return: The export job description.
        """
        try:
            response = self.health_lake_client.describe_fhir_export_job(
                DatastoreId=datastore_id, JobId=job_id
            )
            return response["ExportJobProperties"]
        except ClientError as err:
            logger.exception(
                "Couldn't describe export job with ID %s. Here's why %s",
                job_id,
                err.response["Error"]["Message"],
            )
            raise
```
+  Pour plus de détails sur l'API, consultez le [manuel de référence de l'API Describe FHIRExport Job](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/DescribeFHIRExportJob) in *AWS SDK for Python (Boto3*). 
 Il y en a plus à ce sujet GitHub. Trouvez l’exemple complet et découvrez comment le configurer et l’exécuter dans le [référentiel d’exemples de code AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples). 

------
#### [ SAP ABAP ]

**Kit SDK pour SAP ABAP**  
 Il y en a plus à ce sujet GitHub. Trouvez l’exemple complet et découvrez comment le configurer et l’exécuter dans le [référentiel d’exemples de code AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples). 

```
    TRY.
        " iv_datastore_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        " iv_job_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        oo_result = lo_hll->describefhirexportjob(
          iv_datastoreid = iv_datastore_id
          iv_jobid = iv_job_id
        ).
        DATA(lo_export_job_properties) = oo_result->get_exportjobproperties( ).
        IF lo_export_job_properties IS BOUND.
          DATA(lv_job_status) = lo_export_job_properties->get_jobstatus( ).
          MESSAGE |Export job status: { lv_job_status }.| TYPE 'I'.
        ENDIF.
      CATCH /aws1/cx_hllresourcenotfoundex INTO DATA(lo_notfound_ex).
        DATA(lv_error) = |Resource not found: { lo_notfound_ex->av_err_code }-{ lo_notfound_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_notfound_ex.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        lv_error = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
    ENDTRY.
```
+  Pour plus de détails sur l'API, consultez la section de référence de l'*API [Describe FHIRExport Job](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html) in AWS SDK for SAP ABAP*. 

------

**Exemple de disponibilité**  
Vous n’avez pas trouvé ce dont vous avez besoin ? Demandez un exemple de code à l'aide du lien **Fournir des commentaires** dans la barre latérale droite de cette page.

## AWS Console
<a name="describe-export-job-console"></a>

**Note**  
Les informations relatives aux tâches d'exportation FHIR ne sont pas disponibles sur la HealthLake console. Utilisez plutôt le AWS CLI with `DescribeFHIRExportJob` pour demander des propriétés de tâche d'exportation telles que [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ExportJobProperties.html#HealthLake-Type-ExportJobProperties-JobStatus](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ExportJobProperties.html#HealthLake-Type-ExportJobProperties-JobStatus). Pour plus d'informations, reportez-vous à l' AWS CLI exemple présenté sur cette page.

# Liste des emplois d'exportation FHIR
<a name="exporting-fhir-data-list"></a>

Permet `ListFHIRExportJobs` de répertorier les tâches d'exportation FHIR pour un magasin HealthLake de données. Les menus suivants fournissent une procédure AWS Management Console et des exemples de code pour le AWS CLI et AWS SDKs. Pour plus d’informations, consultez [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ListFHIRExportJobs.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ListFHIRExportJobs.html) dans la *Référence d’API AWS HealthLake *.

**Remarque**  
HealthLake prend en charge la [spécification FHIR R4](https://hl7.org/fhir/R4/index.html) pour l'échange de données sur les soins de santé. Par conséquent, toutes les données de santé sont exportées au format FHIR R4.

**Pour répertorier les emplois d'exportation FHIR**  
Choisissez un menu en fonction de vos préférences d'accès à AWS HealthLake.

## AWS CLI et SDKs
<a name="list-export-jobs-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**Pour répertorier tous les emplois d’exportation FHIR**  
L’exemple `list-fhir-export-jobs` suivant montre comment utiliser la commande pour afficher une liste des tâches d’exportation associées à un compte.  

```
aws healthlake list-fhir-export-jobs \
    --datastore-id (Data store ID) \
    --submitted-before (DATE like 2024-10-13T19:00:00Z)\
    --submitted-after (DATE like 2020-10-13T19:00:00Z )\
    --job-name "FHIR-EXPORT" \
    --job-status SUBMITTED  \
    --max-results (Integer between 1 and 500)
```
Sortie :  

```
{
    "ExportJobPropertiesList": [
        {
            "ExportJobProperties": {
                "OutputDataConfig": {
                    "S3Uri": "s3://(Bucket Name)/(Prefix Name)/",
                    "S3Configuration": {
                        "S3Uri": "s3://(Bucket Name)/(Prefix Name)/",
                        "KmsKeyId": "(KmsKey Id)"
                    }
                },
                "DataAccessRoleArn": "arn:aws:iam::(AWS Account ID):role/(Role Name)",
                "JobStatus": "COMPLETED",
                "JobId": "c145fbb27b192af392f8ce6e7838e34f",
                "JobName": "FHIR-EXPORT",
                "SubmitTime": "2024-11-20T11:31:46.672000-05:00",
                "EndTime": "2024-11-20T11:34:01.636000-05:00",
                "DatastoreId": "(Data store ID)"
            }
        }
    ]
}
```
Pour plus d'informations, consultez la section [Exportation de fichiers depuis un magasin de données FHIR](https://docs.aws.amazon.com/healthlake/latest/devguide/export-datastore.html) dans le Guide du AWS HealthLake développeur.  
+  Pour plus de détails sur l'API, consultez la section [FHIRExportRépertorier les tâches](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/list-fhir-export-jobs.html) dans *AWS CLI Command Reference*. 

------
#### [ Python ]

**Kit SDK for Python (Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def list_fhir_export_jobs(
        self,
        datastore_id: str,
        job_name: str = None,
        job_status: str = None,
        submitted_before: datetime = None,
        submitted_after: datetime = None,
    ) -> list[dict[str, any]]:
        """
        Lists HealthLake export jobs satisfying the conditions.
        :param datastore_id: The data store ID.
        :param job_name: The export job name.
        :param job_status: The export job status.
        :param submitted_before: The export job submitted before the specified date.
        :param submitted_after: The export job submitted after the specified date.
        :return: A list of export jobs.
        """
        try:
            parameters = {"DatastoreId": datastore_id}
            if job_name is not None:
                parameters["JobName"] = job_name
            if job_status is not None:
                parameters["JobStatus"] = job_status
            if submitted_before is not None:
                parameters["SubmittedBefore"] = submitted_before
            if submitted_after is not None:
                parameters["SubmittedAfter"] = submitted_after
            next_token = None
            jobs = []
            # Loop through paginated results.
            while True:
                if next_token is not None:
                    parameters["NextToken"] = next_token
                response = self.health_lake_client.list_fhir_export_jobs(**parameters)
                jobs.extend(response["ExportJobPropertiesList"])
                if "NextToken" in response:
                    next_token = response["NextToken"]
                else:
                    break
            return jobs
        except ClientError as err:
            logger.exception(
                "Couldn't list export jobs. Here's why %s",
                err.response["Error"]["Message"],
            )
            raise
```
+  Pour plus de détails sur l'API, consultez le [manuel de référence de l'API List FHIRExport Jobs](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/ListFHIRExportJobs) in *AWS SDK for Python (Boto3*). 
 Il y en a plus sur GitHub. Trouvez l’exemple complet et découvrez comment le configurer et l’exécuter dans le [référentiel d’exemples de code AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples). 

------
#### [ SAP ABAP ]

**Kit SDK pour SAP ABAP**  
 Il y en a plus sur GitHub. Trouvez l’exemple complet et découvrez comment le configurer et l’exécuter dans le [référentiel d’exemples de code AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples). 

```
    TRY.
        " iv_datastore_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        IF iv_submitted_after IS NOT INITIAL.
          oo_result = lo_hll->listfhirexportjobs(
            iv_datastoreid = iv_datastore_id
            iv_submittedafter = iv_submitted_after
          ).
        ELSE.
          oo_result = lo_hll->listfhirexportjobs(
            iv_datastoreid = iv_datastore_id
          ).
        ENDIF.
        DATA(lt_export_jobs) = oo_result->get_exportjobpropertieslist( ).
        DATA(lv_job_count) = lines( lt_export_jobs ).
        MESSAGE |Found { lv_job_count } export job(s).| TYPE 'I'.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        DATA(lv_error) = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
      CATCH /aws1/cx_hllresourcenotfoundex INTO DATA(lo_notfound_ex).
        lv_error = |Resource not found: { lo_notfound_ex->av_err_code }-{ lo_notfound_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_notfound_ex.
    ENDTRY.
```
+  Pour plus de détails sur l'API, consultez [la section List FHIRExport Jobs](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html) in *AWS SDK for SAP ABAP API reference*. 

------

**Exemple de disponibilité**  
Vous n’avez pas trouvé ce dont vous avez besoin ? Demandez un exemple de code à l'aide du lien **Fournir des commentaires** dans la barre latérale droite de cette page.

## AWS Console
<a name="list-export-jobs-console"></a>

**Note**  
Les informations relatives aux tâches d'exportation FHIR ne sont pas disponibles sur la HealthLake console. Utilisez plutôt le AWS CLI with `ListFHIRExportJobs` pour répertorier toutes les tâches d'exportation FHIR. Pour plus d'informations, reportez-vous à l' AWS CLI exemple présenté sur cette page.