

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Exportieren von FHIR-Daten mit AWS HealthLake
<a name="exporting-fhir-data"></a>

Verwenden Sie native AWS HealthLake Aktionen, um FHIR-Exportaufträge zu starten, zu beschreiben und aufzulisten. Sie können Exportaufträge in eine Warteschlange stellen. Die asynchronen Exportaufträge werden nach dem FIFO-Verfahren (First In First Out) verarbeitet. Sie können Jobs genauso in die Warteschlange stellen, wie Sie Exportaufträge starten. Wenn gerade einer in Bearbeitung ist, wird er einfach in die Warteschlange gestellt. Sie können FHIR-Ressourcen erstellen, lesen, aktualisieren oder löschen, während ein Exportauftrag ausgeführt wird.

**Anmerkung**  
Sie können FHIR-Daten auch mithilfe der FHIR R4-Operation aus einem HealthLake Datenspeicher exportieren. `$export` Weitere Informationen finden Sie unter [HealthLake Daten mit FHIR exportieren `$export`](reference-fhir-operations-export.md).

**Topics**
+ [Einen Exportjob starten](exporting-fhir-data-start.md)
+ [Eigenschaften von Exportaufträgen abrufen](exporting-fhir-data-describe.md)
+ [Exportaufträge auflisten](exporting-fhir-data-list.md)

# Einen FHIR-Exportjob starten
<a name="exporting-fhir-data-start"></a>

Wird verwendet`StartFHIRExportJob`, um einen FHIR-Exportauftrag aus einem HealthLake Datenspeicher zu starten. Die folgenden Menüs enthalten eine Vorgehensweise für das AWS-Managementkonsole und Codebeispiele für AWS CLI und AWS SDKs. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_StartFHIRExportJob.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_StartFHIRExportJob.html) in der *AWS HealthLake -API-Referenz*.

**Hinweis**  
HealthLake unterstützt die [FHIR R4-Spezifikation](https://hl7.org/fhir/R4/index.html) für den Austausch von Gesundheitsdaten. Daher werden alle Gesundheitsdaten im FHIR R4-Format exportiert.

**So starten Sie einen FHIR-Exportjob**  
Wählen Sie ein Menü, das Ihren Zugriffspräferenzen für entspricht. AWS HealthLake

## AWS CLI und SDKs
<a name="start-export-job-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**So starten Sie einen FHIR-Exportjob**  
Das folgende `start-fhir-export-job` Beispiel zeigt, wie Sie einen FHIR-Exportauftrag mit AWS HealthLake starten.  

```
aws healthlake start-fhir-export-job \
    --output-data-config '{"S3Configuration": {"S3Uri":"s3://(Bucket Name)/(Prefix Name)/","KmsKeyId":"arn:aws:kms:us-east-1:012345678910:key/d330e7fc-b56c-4216-a250-f4c43ef46e83"}}' \
    --datastore-id (Data store ID) \
    --data-access-role-arn arn:aws:iam::(AWS Account ID):role/(Role Name)
```
Ausgabe:  

```
{
    "DatastoreId": "(Data store ID)",
    "JobStatus": "SUBMITTED",
    "JobId": "9b9a51943afaedd0a8c0c26c49135a31"
}
```
Weitere Informationen finden Sie unter [Exportieren von Dateien aus einem FHIR-Datenspeicher](https://docs.aws.amazon.com/healthlake/latest/devguide/export-datastore.html) im *AWS HealthLake Entwicklerhandbuch*.  
+  API-Einzelheiten finden Sie unter [FHIRExportJob starten](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/start-fhir-export-job.html) in der *AWS CLI Befehlsreferenz*. 

------
#### [ Python ]

**SDK für Python (Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def start_fhir_export_job(
        self,
        job_name: str,
        datastore_id: str,
        output_s3_uri: str,
        kms_key_id: str,
        data_access_role_arn: str,
    ) -> dict[str, str]:
        """
        Starts a HealthLake export job.
        :param job_name: The export job name.
        :param datastore_id: The data store ID.
        :param output_s3_uri: The output S3 URI.
        :param kms_key_id: The KMS key ID associated with the output S3 bucket.
        :param data_access_role_arn: The data access role ARN.
        :return: The export job.
        """
        try:
            response = self.health_lake_client.start_fhir_export_job(
                OutputDataConfig={
                    "S3Configuration": {"S3Uri": output_s3_uri, "KmsKeyId": kms_key_id}
                },
                DataAccessRoleArn=data_access_role_arn,
                DatastoreId=datastore_id,
                JobName=job_name,
            )

            return response
        except ClientError as err:
            logger.exception(
                "Couldn't start export job. Here's why %s",
                err.response["Error"]["Message"],
            )
            raise
```
+  Einzelheiten zur API finden Sie unter [Start FHIRExport Job](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/StartFHIRExportJob) in *AWS SDK for Python (Boto3) API-Referenz*. 
 Es gibt noch mehr dazu. GitHub Hier finden Sie das vollständige Beispiel und erfahren, wie Sie das [AWS -Code-Beispiel-](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples) einrichten und ausführen. 

------
#### [ SAP ABAP ]

**SDK für SAP ABAP**  
 Es gibt noch mehr dazu. GitHub Hier finden Sie das vollständige Beispiel und erfahren, wie Sie das [AWS -Code-Beispiel-](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples) einrichten und ausführen. 

```
    TRY.
        " iv_job_name = 'MyExportJob'
        " iv_output_s3_uri = 's3://my-bucket/export/output/'
        " iv_kms_key_id = 'arn:aws:kms:us-east-1:123456789012:key/12345678-1234-1234-1234-123456789012'
        " iv_data_access_role_arn = 'arn:aws:iam::123456789012:role/HealthLakeExportRole'
        oo_result = lo_hll->startfhirexportjob(
          iv_jobname = iv_job_name
          io_outputdataconfig = NEW /aws1/cl_hlloutputdataconfig(
            io_s3configuration = NEW /aws1/cl_hlls3configuration(
              iv_s3uri = iv_output_s3_uri
              iv_kmskeyid = iv_kms_key_id
            )
          )
          iv_dataaccessrolearn = iv_data_access_role_arn
          iv_datastoreid = iv_datastore_id
        ).
        DATA(lv_job_id) = oo_result->get_jobid( ).
        MESSAGE |Export job started with ID { lv_job_id }.| TYPE 'I'.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        DATA(lv_error) = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
      CATCH /aws1/cx_hllthrottlingex INTO DATA(lo_throttling_ex).
        lv_error = |Throttling error: { lo_throttling_ex->av_err_code }-{ lo_throttling_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_throttling_ex.
      CATCH /aws1/cx_hllaccessdeniedex INTO DATA(lo_access_ex).
        lv_error = |Access denied: { lo_access_ex->av_err_code }-{ lo_access_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_access_ex.
    ENDTRY.
```
+  API-Details finden Sie unter *Referenz zum [Starten FHIRExport eines Job](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html) im AWS SDK für SAP ABAP API.* 

------

**Beispiel für die Verfügbarkeit**  
Sie können nicht finden, was Sie brauchen? Fordern Sie über den Link **Feedback geben** in der rechten Seitenleiste dieser Seite ein Codebeispiel an.

## AWS Konsole
<a name="start-export-job-console"></a>

1. Melden Sie sich auf der Seite [Datenspeicher](https://console.aws.amazon.com/healthlake/home#/list-datastores) in der HealthLake Konsole an.

1. Wählen Sie einen Datenspeicher aus.

1. Wählen Sie **Export** aus.

   Die **Exportseite** wird geöffnet.

1. Geben Sie im Abschnitt **Ausgabedaten** die folgenden Informationen ein:
   + **Speicherort der Ausgabedaten in Amazon S3**
   + **Verschlüsselung der Ausgabe**

1. Wählen Sie im Abschnitt **Zugriffsberechtigungen** die **Option Bestehende IAM-Dienstrolle verwenden und wählen Sie die Rolle** im Menü **Rollenname aus, oder wählen Sie **Create** an IAM-Rolle** aus.

1. Wählen Sie **Daten exportieren** aus.
**Anmerkung**  
Wählen Sie beim Export im Banner oben auf der Seite die Option **Job-ID kopieren** aus. Sie können die verwenden [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRExportJob.html#HealthLake-DescribeFHIRExportJob-request-JobId](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRExportJob.html#HealthLake-DescribeFHIRExportJob-request-JobId), um Exportauftragseigenschaften über die anzufordern AWS CLI. Weitere Informationen finden Sie unter [Eigenschaften von FHIR-Exportaufträgen abrufen](exporting-fhir-data-describe.md).

# Eigenschaften von FHIR-Exportaufträgen abrufen
<a name="exporting-fhir-data-describe"></a>

Wird verwendet`DescribeFHIRExportJob`, um Eigenschaften von Exportaufträgen aus einem HealthLake Datenspeicher abzurufen. Die folgenden Menüs enthalten eine Vorgehensweise für das AWS-Managementkonsole und Codebeispiele für AWS CLI und AWS SDKs. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRExportJob.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRExportJob.html) in der *AWS HealthLake -API-Referenz*.

**Hinweis**  
HealthLake unterstützt die [FHIR R4-Spezifikation](https://hl7.org/fhir/R4/index.html) für den Austausch von Gesundheitsdaten. Daher werden alle Gesundheitsdaten im FHIR R4-Format exportiert.

**So beschreiben Sie einen FHIR-Exportjob**  
Wählen Sie ein Menü, das Ihren Zugriffspräferenzen für entspricht. AWS HealthLake

## AWS CLI und SDKs
<a name="describe-export-job-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**So beschreiben Sie einen FHIR-Exportjob**  
Das folgende `describe-fhir-export-job` Beispiel zeigt, wie Sie die Eigenschaften eines FHIR-Exportauftrags in AWS HealthLake finden.  

```
aws healthlake describe-fhir-export-job \
    --datastore-id (Data store ID) \
    --job-id 9b9a51943afaedd0a8c0c26c49135a31
```
Ausgabe:  

```
{
    "ExportJobProperties": {
        "DataAccessRoleArn": "arn:aws:iam::(AWS Account ID):role/(Role Name)",
        "JobStatus": "IN_PROGRESS",
        "JobId": "9009813e9d69ba7cf79bcb3468780f16",
        "SubmitTime": "2024-11-20T11:31:46.672000-05:00",
        "EndTime": "2024-11-20T11:34:01.636000-05:00",
        "OutputDataConfig": {
            "S3Configuration": {
            "S3Uri": "s3://(Bucket Name)/(Prefix Name)/",
            "KmsKeyId": "arn:aws:kms:us-east-1:012345678910:key/d330e7fc-b56c-4216-a250-f4c43ef46e83"
        }

        },
        "DatastoreId": "(Data store ID)"
    }
}
```
Weitere Informationen finden Sie unter [Exportieren von Dateien aus einem FHIR-Datenspeicher](https://docs.aws.amazon.com/healthlake/latest/devguide/export-datastore.html) im *AWS HealthLake Entwicklerhandbuch*.  
+  Einzelheiten zur API finden Sie unter [FHIRExportJob beschreiben](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/describe-fhir-export-job.html) in der *AWS CLI Befehlsreferenz*. 

------
#### [ Python ]

**SDK für Python (Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def describe_fhir_export_job(
        self, datastore_id: str, job_id: str
    ) -> dict[str, any]:
        """
        Describes a HealthLake export job.
        :param datastore_id: The data store ID.
        :param job_id: The export job ID.
        :return: The export job description.
        """
        try:
            response = self.health_lake_client.describe_fhir_export_job(
                DatastoreId=datastore_id, JobId=job_id
            )
            return response["ExportJobProperties"]
        except ClientError as err:
            logger.exception(
                "Couldn't describe export job with ID %s. Here's why %s",
                job_id,
                err.response["Error"]["Message"],
            )
            raise
```
+  Einzelheiten zur API finden Sie unter [FHIRExportDescribe Job](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/DescribeFHIRExportJob) in *AWS SDK for Python (Boto3) API-Referenz*. 
 Es gibt noch mehr dazu. GitHub Hier finden Sie das vollständige Beispiel und erfahren, wie Sie das [AWS -Code-Beispiel-](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples) einrichten und ausführen. 

------
#### [ SAP ABAP ]

**SDK für SAP ABAP**  
 Es gibt noch mehr dazu. GitHub Hier finden Sie das vollständige Beispiel und erfahren, wie Sie das [AWS -Code-Beispiel-](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples) einrichten und ausführen. 

```
    TRY.
        " iv_datastore_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        " iv_job_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        oo_result = lo_hll->describefhirexportjob(
          iv_datastoreid = iv_datastore_id
          iv_jobid = iv_job_id
        ).
        DATA(lo_export_job_properties) = oo_result->get_exportjobproperties( ).
        IF lo_export_job_properties IS BOUND.
          DATA(lv_job_status) = lo_export_job_properties->get_jobstatus( ).
          MESSAGE |Export job status: { lv_job_status }.| TYPE 'I'.
        ENDIF.
      CATCH /aws1/cx_hllresourcenotfoundex INTO DATA(lo_notfound_ex).
        DATA(lv_error) = |Resource not found: { lo_notfound_ex->av_err_code }-{ lo_notfound_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_notfound_ex.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        lv_error = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
    ENDTRY.
```
+  Einzelheiten zur API finden Sie unter [FHIRExportDescribe Job](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html) in *AWS SDK for SAP ABAP API-Referenz.* 

------

**Beispiel für die Verfügbarkeit**  
Sie können nicht finden, was Sie brauchen? Fordern Sie über den Link **Feedback geben** in der rechten Seitenleiste dieser Seite ein Codebeispiel an.

## AWS Konsole
<a name="describe-export-job-console"></a>

**Anmerkung**  
Informationen zum FHIR-Exportauftrag sind auf der HealthLake Konsole nicht verfügbar. Verwenden Sie stattdessen die Option AWS CLI with, `DescribeFHIRExportJob` um Eigenschaften von Exportaufträgen anzufordern, wie [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ExportJobProperties.html#HealthLake-Type-ExportJobProperties-JobStatus](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ExportJobProperties.html#HealthLake-Type-ExportJobProperties-JobStatus)z. Weitere Informationen finden Sie im AWS CLI Beispiel auf dieser Seite.

# Auflisten von FHIR-Exportaufträgen
<a name="exporting-fhir-data-list"></a>

Dient `ListFHIRExportJobs` zum Auflisten von FHIR-Exportaufträgen für einen HealthLake Datenspeicher. Die folgenden Menüs enthalten eine Vorgehensweise für das AWS-Managementkonsole und Codebeispiele für AWS CLI und AWS SDKs. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ListFHIRExportJobs.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ListFHIRExportJobs.html) in der *AWS HealthLake -API-Referenz*.

**Hinweis**  
HealthLake unterstützt die [FHIR R4-Spezifikation](https://hl7.org/fhir/R4/index.html) für den Austausch von Gesundheitsdaten. Daher werden alle Gesundheitsdaten im FHIR R4-Format exportiert.

**Um FHIR-Exportaufträge aufzulisten**  
Wählen Sie ein Menü, das Ihren Zugriffspräferenzen für entspricht AWS HealthLake.

## AWS CLI und SDKs
<a name="list-export-jobs-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**So listen Sie alle FHIR-Exportjobs auf**  
Das folgende Beispiel für `list-fhir-export-jobs` zeigt, wie Sie mit dem Befehl eine Liste von Exportjobs anzeigen, die mit einem Konto verknüpft sind.  

```
aws healthlake list-fhir-export-jobs \
    --datastore-id (Data store ID) \
    --submitted-before (DATE like 2024-10-13T19:00:00Z)\
    --submitted-after (DATE like 2020-10-13T19:00:00Z )\
    --job-name "FHIR-EXPORT" \
    --job-status SUBMITTED  \
    --max-results (Integer between 1 and 500)
```
Ausgabe:  

```
{
    "ExportJobPropertiesList": [
        {
            "ExportJobProperties": {
                "OutputDataConfig": {
                    "S3Uri": "s3://(Bucket Name)/(Prefix Name)/",
                    "S3Configuration": {
                        "S3Uri": "s3://(Bucket Name)/(Prefix Name)/",
                        "KmsKeyId": "(KmsKey Id)"
                    }
                },
                "DataAccessRoleArn": "arn:aws:iam::(AWS Account ID):role/(Role Name)",
                "JobStatus": "COMPLETED",
                "JobId": "c145fbb27b192af392f8ce6e7838e34f",
                "JobName": "FHIR-EXPORT",
                "SubmitTime": "2024-11-20T11:31:46.672000-05:00",
                "EndTime": "2024-11-20T11:34:01.636000-05:00",
                "DatastoreId": "(Data store ID)"
            }
        }
    ]
}
```
Weitere Informationen finden Sie unter [Exportieren von Dateien aus einem FHIR-Datenspeicher](https://docs.aws.amazon.com/healthlake/latest/devguide/export-datastore.html) im AWS HealthLake Entwicklerhandbuch.  
+  Einzelheiten zur API finden Sie unter [FHIRExportAuflisten von Aufträgen](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/list-fhir-export-jobs.html) in der *AWS CLI Befehlsreferenz.* 

------
#### [ Python ]

**SDK für Python (Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def list_fhir_export_jobs(
        self,
        datastore_id: str,
        job_name: str = None,
        job_status: str = None,
        submitted_before: datetime = None,
        submitted_after: datetime = None,
    ) -> list[dict[str, any]]:
        """
        Lists HealthLake export jobs satisfying the conditions.
        :param datastore_id: The data store ID.
        :param job_name: The export job name.
        :param job_status: The export job status.
        :param submitted_before: The export job submitted before the specified date.
        :param submitted_after: The export job submitted after the specified date.
        :return: A list of export jobs.
        """
        try:
            parameters = {"DatastoreId": datastore_id}
            if job_name is not None:
                parameters["JobName"] = job_name
            if job_status is not None:
                parameters["JobStatus"] = job_status
            if submitted_before is not None:
                parameters["SubmittedBefore"] = submitted_before
            if submitted_after is not None:
                parameters["SubmittedAfter"] = submitted_after
            next_token = None
            jobs = []
            # Loop through paginated results.
            while True:
                if next_token is not None:
                    parameters["NextToken"] = next_token
                response = self.health_lake_client.list_fhir_export_jobs(**parameters)
                jobs.extend(response["ExportJobPropertiesList"])
                if "NextToken" in response:
                    next_token = response["NextToken"]
                else:
                    break
            return jobs
        except ClientError as err:
            logger.exception(
                "Couldn't list export jobs. Here's why %s",
                err.response["Error"]["Message"],
            )
            raise
```
+  Einzelheiten zur API finden Sie unter [List FHIRExport Jobs](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/ListFHIRExportJobs) in *AWS SDK for Python (Boto3) API-Referenz*. 
 Es gibt noch mehr dazu. GitHub Hier finden Sie das vollständige Beispiel und erfahren, wie Sie das [AWS -Code-Beispiel-](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples) einrichten und ausführen. 

------
#### [ SAP ABAP ]

**SDK für SAP ABAP**  
 Es gibt noch mehr dazu. GitHub Hier finden Sie das vollständige Beispiel und erfahren, wie Sie das [AWS -Code-Beispiel-](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples) einrichten und ausführen. 

```
    TRY.
        " iv_datastore_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        IF iv_submitted_after IS NOT INITIAL.
          oo_result = lo_hll->listfhirexportjobs(
            iv_datastoreid = iv_datastore_id
            iv_submittedafter = iv_submitted_after
          ).
        ELSE.
          oo_result = lo_hll->listfhirexportjobs(
            iv_datastoreid = iv_datastore_id
          ).
        ENDIF.
        DATA(lt_export_jobs) = oo_result->get_exportjobpropertieslist( ).
        DATA(lv_job_count) = lines( lt_export_jobs ).
        MESSAGE |Found { lv_job_count } export job(s).| TYPE 'I'.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        DATA(lv_error) = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
      CATCH /aws1/cx_hllresourcenotfoundex INTO DATA(lo_notfound_ex).
        lv_error = |Resource not found: { lo_notfound_ex->av_err_code }-{ lo_notfound_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_notfound_ex.
    ENDTRY.
```
+  Einzelheiten zur API finden Sie in der *Referenz zum [FHIRExportAuflisten von Aufträgen](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html) im AWS SDK für SAP ABAP API.* 

------

**Beispiel für die Verfügbarkeit**  
Sie können nicht finden, was Sie brauchen? Fordern Sie über den Link **Feedback geben** in der rechten Seitenleiste dieser Seite ein Codebeispiel an.

## AWS Konsole
<a name="list-export-jobs-console"></a>

**Anmerkung**  
Informationen zum FHIR-Exportauftrag sind auf der HealthLake Konsole nicht verfügbar. Verwenden Sie stattdessen das „ AWS CLI with“, `ListFHIRExportJobs` um alle FHIR-Exportaufträge aufzulisten. Weitere Informationen finden Sie im AWS CLI Beispiel auf dieser Seite.