

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 를 사용하여 FHIR 데이터 내보내기 AWS HealthLake
<a name="exporting-fhir-data"></a>

기본 AWS HealthLake 작업을 사용하여 FHIR 내보내기 작업을 시작, 설명 및 나열합니다. 내보내기 작업을 대기열에 넣을 수 있습니다. 비동기 내보내기 작업은 FIFO(선입선출) 방식으로 처리됩니다. 내보내기 작업을 시작하는 것과 동일한 방식으로 작업을 대기열에 넣을 수 있습니다. 진행 중인 경우 대기열에 추가하기만 하면 됩니다. 내보내기 작업이 진행되는 동안 FHIR 리소스를 생성, 읽기, 업데이트 또는 삭제할 수 있습니다.

**참고**  
FHIR R4 `$export` 작업을 사용하여 HealthLake 데이터 스토어에서 FHIR 데이터를 내보낼 수도 있습니다. 자세한 내용은 [FHIR을 사용하여 HealthLake 데이터 내보내기 `$export`](reference-fhir-operations-export.md) 단원을 참조하십시오.

**Topics**
+ [내보내기 작업 시작](exporting-fhir-data-start.md)
+ [내보내기 작업 속성 가져오기](exporting-fhir-data-describe.md)
+ [내보내기 작업 나열](exporting-fhir-data-list.md)

# FHIR 내보내기 작업 시작
<a name="exporting-fhir-data-start"></a>

`StartFHIRExportJob`를 사용하여 HealthLake 데이터 스토어에서 FHIR 내보내기 작업을 시작합니다. 다음 메뉴는 AWS Management Console 및 AWS SDKs의 AWS CLI 및 코드 예제에 대한 절차를 제공합니다. 자세한 내용을 알아보려면 [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_StartFHIRExportJob.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_StartFHIRExportJob.html) 섹션을 참조하세요.

**Note**  
HealthLake는 의료 데이터 교환을 위한 [FHIR R4 사양을](https://hl7.org/fhir/R4/index.html) 지원합니다. 따라서 모든 상태 데이터는 FHIR R4 형식으로 내보내집니다.

**FHIR 내보내기 작업을 시작하는 방법**  
액세스 기본 설정에 따라 메뉴를 선택합니다 AWS HealthLake.

## AWS CLI 및 SDKs
<a name="start-export-job-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**FHIR 내보내기 작업을 시작하는 방법**  
다음 `start-fhir-export-job` 예제에서는 AWS HealthLake를 사용하여 FHIR 내보내기 작업을 시작하는 방법을 보여줍니다.  

```
aws healthlake start-fhir-export-job \
    --output-data-config '{"S3Configuration": {"S3Uri":"s3://(Bucket Name)/(Prefix Name)/","KmsKeyId":"arn:aws:kms:us-east-1:012345678910:key/d330e7fc-b56c-4216-a250-f4c43ef46e83"}}' \
    --datastore-id (Data store ID) \
    --data-access-role-arn arn:aws:iam::(AWS Account ID):role/(Role Name)
```
출력:  

```
{
    "DatastoreId": "(Data store ID)",
    "JobStatus": "SUBMITTED",
    "JobId": "9b9a51943afaedd0a8c0c26c49135a31"
}
```
자세한 내용은 *AWS HealthLake 개발자 안내서*의 [FHIR 데이터 스토어에서 파일 내보내기](https://docs.aws.amazon.com/healthlake/latest/devguide/export-datastore.html)를 참조하세요.  
+  API 세부 정보는 *AWS CLI 명령 참조*의 [StartFHIRExportJob](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/start-fhir-export-job.html) 섹션을 참조하세요.

------
#### [ Python ]

**SDK for Python(Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def start_fhir_export_job(
        self,
        job_name: str,
        datastore_id: str,
        output_s3_uri: str,
        kms_key_id: str,
        data_access_role_arn: str,
    ) -> dict[str, str]:
        """
        Starts a HealthLake export job.
        :param job_name: The export job name.
        :param datastore_id: The data store ID.
        :param output_s3_uri: The output S3 URI.
        :param kms_key_id: The KMS key ID associated with the output S3 bucket.
        :param data_access_role_arn: The data access role ARN.
        :return: The export job.
        """
        try:
            response = self.health_lake_client.start_fhir_export_job(
                OutputDataConfig={
                    "S3Configuration": {"S3Uri": output_s3_uri, "KmsKeyId": kms_key_id}
                },
                DataAccessRoleArn=data_access_role_arn,
                DatastoreId=datastore_id,
                JobName=job_name,
            )

            return response
        except ClientError as err:
            logger.exception(
                "Couldn't start export job. Here's why %s",
                err.response["Error"]["Message"],
            )
            raise
```
+  API 세부 정보는 *AWS SDK for Python (Boto3) API 참조*의 [StartFHIRExportJob](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/StartFHIRExportJob)을 참조하세요.
 GitHub에 더 많은 내용이 있습니다. [AWS 코드 예 리포지토리](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples)에서 전체 예를 찾고 설정 및 실행하는 방법을 배워보세요.

------
#### [ SAP ABAP ]

**SDK for SAP ABAP API**  
 GitHub에 더 많은 내용이 있습니다. [AWS 코드 예 리포지토리](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples)에서 전체 예를 찾고 설정 및 실행하는 방법을 배워보세요.

```
    TRY.
        " iv_job_name = 'MyExportJob'
        " iv_output_s3_uri = 's3://my-bucket/export/output/'
        " iv_kms_key_id = 'arn:aws:kms:us-east-1:123456789012:key/12345678-1234-1234-1234-123456789012'
        " iv_data_access_role_arn = 'arn:aws:iam::123456789012:role/HealthLakeExportRole'
        oo_result = lo_hll->startfhirexportjob(
          iv_jobname = iv_job_name
          io_outputdataconfig = NEW /aws1/cl_hlloutputdataconfig(
            io_s3configuration = NEW /aws1/cl_hlls3configuration(
              iv_s3uri = iv_output_s3_uri
              iv_kmskeyid = iv_kms_key_id
            )
          )
          iv_dataaccessrolearn = iv_data_access_role_arn
          iv_datastoreid = iv_datastore_id
        ).
        DATA(lv_job_id) = oo_result->get_jobid( ).
        MESSAGE |Export job started with ID { lv_job_id }.| TYPE 'I'.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        DATA(lv_error) = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
      CATCH /aws1/cx_hllthrottlingex INTO DATA(lo_throttling_ex).
        lv_error = |Throttling error: { lo_throttling_ex->av_err_code }-{ lo_throttling_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_throttling_ex.
      CATCH /aws1/cx_hllaccessdeniedex INTO DATA(lo_access_ex).
        lv_error = |Access denied: { lo_access_ex->av_err_code }-{ lo_access_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_access_ex.
    ENDTRY.
```
+  API 세부 정보는 SDK for SAP ABAP API 참조의 [StartFHIRExportJob](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html)을 참조하세요. *AWS * 

------

**예제 가용성**  
필요한 예제를 찾을 수 없습니까? 이 페이지의 오른쪽 사이드바에 있는 **피드백 제공** 링크를 사용하여 코드 예제를 요청합니다.

## AWS 콘솔
<a name="start-export-job-console"></a>

1. HealthLake 콘솔의 [데이터 스토어](https://console.aws.amazon.com/healthlake/home#/list-datastores) 페이지에 로그인합니다.

1. 데이터 스토어를 선택합니다.

1. **내보내기**를 선택합니다.

   **내보내기** 페이지가 열립니다.

1. **출력 데이터** 섹션에서 다음 정보를 입력합니다.
   + **Amazon S3의 출력 데이터 위치**
   + **출력 암호화**

1. **액세스 권한** 섹션에서 **기존 IAM 서비스 역할 사용을** 선택하고 역할 **이름 메뉴에서 역할을** 선택하거나 **IAM 역할 생성을** 선택합니다.

1. **데이터 내보내기**를 선택합니다.
**참고**  
내보내는 동안 페이지 상단의 배너에서 **작업 ID 복사**를 선택합니다. 를 사용하여 [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRExportJob.html#HealthLake-DescribeFHIRExportJob-request-JobId](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRExportJob.html#HealthLake-DescribeFHIRExportJob-request-JobId)를 사용하여 내보내기 작업 속성을 요청할 수 있습니다 AWS CLI. 자세한 내용은 [FHIR 내보내기 작업 속성 가져오기](exporting-fhir-data-describe.md) 단원을 참조하십시오.

# FHIR 내보내기 작업 속성 가져오기
<a name="exporting-fhir-data-describe"></a>

HealthLake 데이터 스토어에서 내보내기 작업 속성을 가져오는 `DescribeFHIRExportJob` 데 사용합니다. 다음 메뉴는 AWS Management Console 및 AWS SDKs의 AWS CLI 및 코드 예제에 대한 절차를 제공합니다. 자세한 내용을 알아보려면 [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRExportJob.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRExportJob.html) 섹션을 참조하세요.

**Note**  
HealthLake는 의료 데이터 교환을 위한 [FHIR R4 사양을](https://hl7.org/fhir/R4/index.html) 지원합니다. 따라서 모든 상태 데이터는 FHIR R4 형식으로 내보내집니다.

**FHIR 내보내기 작업을 설명하는 방법**  
액세스 기본 설정에 따라 메뉴를 선택합니다 AWS HealthLake.

## AWS CLI 및 SDKs
<a name="describe-export-job-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**FHIR 내보내기 작업을 설명하는 방법**  
다음 `describe-fhir-export-job` 예제에서는 AWS HealthLake에서 FHIR 내보내기 작업의 속성을 찾는 방법을 보여줍니다.  

```
aws healthlake describe-fhir-export-job \
    --datastore-id (Data store ID) \
    --job-id 9b9a51943afaedd0a8c0c26c49135a31
```
출력:  

```
{
    "ExportJobProperties": {
        "DataAccessRoleArn": "arn:aws:iam::(AWS Account ID):role/(Role Name)",
        "JobStatus": "IN_PROGRESS",
        "JobId": "9009813e9d69ba7cf79bcb3468780f16",
        "SubmitTime": "2024-11-20T11:31:46.672000-05:00",
        "EndTime": "2024-11-20T11:34:01.636000-05:00",
        "OutputDataConfig": {
            "S3Configuration": {
            "S3Uri": "s3://(Bucket Name)/(Prefix Name)/",
            "KmsKeyId": "arn:aws:kms:us-east-1:012345678910:key/d330e7fc-b56c-4216-a250-f4c43ef46e83"
        }

        },
        "DatastoreId": "(Data store ID)"
    }
}
```
자세한 내용은 *AWS HealthLake 개발자 안내서*의 [FHIR 데이터 스토어에서 파일 내보내기](https://docs.aws.amazon.com/healthlake/latest/devguide/export-datastore.html)를 참조하세요.  
+  API 세부 정보는 *AWS CLI 명령 참조*의 [DescribeFHIRExportJob](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/describe-fhir-export-job.html) 섹션을 참조하세요.

------
#### [ Python ]

**SDK for Python(Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def describe_fhir_export_job(
        self, datastore_id: str, job_id: str
    ) -> dict[str, any]:
        """
        Describes a HealthLake export job.
        :param datastore_id: The data store ID.
        :param job_id: The export job ID.
        :return: The export job description.
        """
        try:
            response = self.health_lake_client.describe_fhir_export_job(
                DatastoreId=datastore_id, JobId=job_id
            )
            return response["ExportJobProperties"]
        except ClientError as err:
            logger.exception(
                "Couldn't describe export job with ID %s. Here's why %s",
                job_id,
                err.response["Error"]["Message"],
            )
            raise
```
+  API 세부 정보는 *AWS SDK for Python (Boto3) API 참조*의 [DescribeFHIRExportJob](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/DescribeFHIRExportJob)을 참조하세요.
 GitHub에 더 많은 내용이 있습니다. [AWS 코드 예 리포지토리](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples)에서 전체 예를 찾고 설정 및 실행하는 방법을 배워보세요.

------
#### [ SAP ABAP ]

**SDK for SAP ABAP API**  
 GitHub에 더 많은 내용이 있습니다. [AWS 코드 예 리포지토리](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples)에서 전체 예를 찾고 설정 및 실행하는 방법을 배워보세요.

```
    TRY.
        " iv_datastore_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        " iv_job_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        oo_result = lo_hll->describefhirexportjob(
          iv_datastoreid = iv_datastore_id
          iv_jobid = iv_job_id
        ).
        DATA(lo_export_job_properties) = oo_result->get_exportjobproperties( ).
        IF lo_export_job_properties IS BOUND.
          DATA(lv_job_status) = lo_export_job_properties->get_jobstatus( ).
          MESSAGE |Export job status: { lv_job_status }.| TYPE 'I'.
        ENDIF.
      CATCH /aws1/cx_hllresourcenotfoundex INTO DATA(lo_notfound_ex).
        DATA(lv_error) = |Resource not found: { lo_notfound_ex->av_err_code }-{ lo_notfound_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_notfound_ex.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        lv_error = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
    ENDTRY.
```
+  API 세부 정보는 SDK for SAP ABAP API 참조의 [DescribeFHIRExportJob](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html)을 참조하세요. *AWS * 

------

**예제 가용성**  
필요한 예제를 찾을 수 없습니까? 이 페이지의 오른쪽 사이드바에 있는 **피드백 제공** 링크를 사용하여 코드 예제를 요청합니다.

## AWS 콘솔
<a name="describe-export-job-console"></a>

**참고**  
FHIR 내보내기 작업 정보는 HealthLake 콘솔에서 사용할 수 없습니다. 대신와 함께를 AWS CLI 사용하여와 같은 내보내기 작업 속성을 `DescribeFHIRExportJob` 요청합니다[https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ExportJobProperties.html#HealthLake-Type-ExportJobProperties-JobStatus](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ExportJobProperties.html#HealthLake-Type-ExportJobProperties-JobStatus). 자세한 내용은이 페이지의 AWS CLI 예제를 참조하세요.

# FHIR 내보내기 작업 나열
<a name="exporting-fhir-data-list"></a>

`ListFHIRExportJobs`를 사용하여 HealthLake 데이터 스토어에 대한 FHIR 내보내기 작업을 나열합니다. 다음 메뉴는 AWS Management Console 및 SDKs의 AWS CLI 및 AWS 코드 예제에 대한 절차를 제공합니다. 자세한 내용을 알아보려면 [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ListFHIRExportJobs.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ListFHIRExportJobs.html) 섹션을 참조하세요.

**Note**  
HealthLake는 의료 데이터 교환을 위한 [FHIR R4 사양을](https://hl7.org/fhir/R4/index.html) 지원합니다. 따라서 모든 상태 데이터는 FHIR R4 형식으로 내보내집니다.

**FHIR 내보내기 작업을 나열하려면**  
액세스 기본 설정에 따라 메뉴를 선택합니다 AWS HealthLake.

## AWS CLI 및 SDKs
<a name="list-export-jobs-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**모든 FHIR 내보내기 작업을 나열하는 방법**  
다음 `list-fhir-export-jobs` 예제에서는 명령을 사용하여 계정과 연결된 내보내기 작업 목록을 보는 방법을 보여 줍니다.  

```
aws healthlake list-fhir-export-jobs \
    --datastore-id (Data store ID) \
    --submitted-before (DATE like 2024-10-13T19:00:00Z)\
    --submitted-after (DATE like 2020-10-13T19:00:00Z )\
    --job-name "FHIR-EXPORT" \
    --job-status SUBMITTED  \
    --max-results (Integer between 1 and 500)
```
출력:  

```
{
    "ExportJobPropertiesList": [
        {
            "ExportJobProperties": {
                "OutputDataConfig": {
                    "S3Uri": "s3://(Bucket Name)/(Prefix Name)/",
                    "S3Configuration": {
                        "S3Uri": "s3://(Bucket Name)/(Prefix Name)/",
                        "KmsKeyId": "(KmsKey Id)"
                    }
                },
                "DataAccessRoleArn": "arn:aws:iam::(AWS Account ID):role/(Role Name)",
                "JobStatus": "COMPLETED",
                "JobId": "c145fbb27b192af392f8ce6e7838e34f",
                "JobName": "FHIR-EXPORT",
                "SubmitTime": "2024-11-20T11:31:46.672000-05:00",
                "EndTime": "2024-11-20T11:34:01.636000-05:00",
                "DatastoreId": "(Data store ID)"
            }
        }
    ]
}
```
자세한 내용은 AWS HealthLake 개발자 안내서의 [FHIR 데이터 스토어에서 파일 내보내기](https://docs.aws.amazon.com/healthlake/latest/devguide/export-datastore.html)를 참조하세요.  
+  API 세부 정보는 *AWS CLI 명령 참조*의 [ListFHIRExportJobs](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/list-fhir-export-jobs.html) 섹션을 참조하세요.

------
#### [ Python ]

**SDK for Python(Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def list_fhir_export_jobs(
        self,
        datastore_id: str,
        job_name: str = None,
        job_status: str = None,
        submitted_before: datetime = None,
        submitted_after: datetime = None,
    ) -> list[dict[str, any]]:
        """
        Lists HealthLake export jobs satisfying the conditions.
        :param datastore_id: The data store ID.
        :param job_name: The export job name.
        :param job_status: The export job status.
        :param submitted_before: The export job submitted before the specified date.
        :param submitted_after: The export job submitted after the specified date.
        :return: A list of export jobs.
        """
        try:
            parameters = {"DatastoreId": datastore_id}
            if job_name is not None:
                parameters["JobName"] = job_name
            if job_status is not None:
                parameters["JobStatus"] = job_status
            if submitted_before is not None:
                parameters["SubmittedBefore"] = submitted_before
            if submitted_after is not None:
                parameters["SubmittedAfter"] = submitted_after
            next_token = None
            jobs = []
            # Loop through paginated results.
            while True:
                if next_token is not None:
                    parameters["NextToken"] = next_token
                response = self.health_lake_client.list_fhir_export_jobs(**parameters)
                jobs.extend(response["ExportJobPropertiesList"])
                if "NextToken" in response:
                    next_token = response["NextToken"]
                else:
                    break
            return jobs
        except ClientError as err:
            logger.exception(
                "Couldn't list export jobs. Here's why %s",
                err.response["Error"]["Message"],
            )
            raise
```
+  API 세부 정보는 *AWS SDK for Python (Boto3) API 참조*의 [ListFHIRExportJobs](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/ListFHIRExportJobs)을 참조하세요.
 GitHub에 더 많은 내용이 있습니다. [AWS 코드 예 리포지토리](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples)에서 전체 예를 찾고 설정 및 실행하는 방법을 배워보세요.

------
#### [ SAP ABAP ]

**SDK for SAP ABAP API**  
 GitHub에 더 많은 내용이 있습니다. [AWS 코드 예 리포지토리](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples)에서 전체 예를 찾고 설정 및 실행하는 방법을 배워보세요.

```
    TRY.
        " iv_datastore_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        IF iv_submitted_after IS NOT INITIAL.
          oo_result = lo_hll->listfhirexportjobs(
            iv_datastoreid = iv_datastore_id
            iv_submittedafter = iv_submitted_after
          ).
        ELSE.
          oo_result = lo_hll->listfhirexportjobs(
            iv_datastoreid = iv_datastore_id
          ).
        ENDIF.
        DATA(lt_export_jobs) = oo_result->get_exportjobpropertieslist( ).
        DATA(lv_job_count) = lines( lt_export_jobs ).
        MESSAGE |Found { lv_job_count } export job(s).| TYPE 'I'.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        DATA(lv_error) = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
      CATCH /aws1/cx_hllresourcenotfoundex INTO DATA(lo_notfound_ex).
        lv_error = |Resource not found: { lo_notfound_ex->av_err_code }-{ lo_notfound_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_notfound_ex.
    ENDTRY.
```
+  API 세부 정보는 SDK for SAP ABAP API 참조의 [ListFHIRExportJobs](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html)를 참조하세요. *AWS * 

------

**예제 가용성**  
필요한 예제를 찾을 수 없습니까? 이 페이지의 오른쪽 사이드바에 있는 **피드백 제공** 링크를 사용하여 코드 예제를 요청합니다.

## AWS 콘솔
<a name="list-export-jobs-console"></a>

**참고**  
FHIR 내보내기 작업 정보는 HealthLake 콘솔에서 사용할 수 없습니다. 대신와 AWS CLI 함께를 사용하여 모든 FHIR 내보내기 작업을 나열`ListFHIRExportJobs`합니다. 자세한 내용은이 페이지의 AWS CLI 예제를 참조하세요.