

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Import von FHIR-Daten mit AWS HealthLake
<a name="importing-fhir-data"></a>

Nach dem Erstellen eines HealthLake Datenspeichers besteht der nächste Schritt darin, Dateien aus einem Amazon Simple Storage Service (S3) -Bucket zu importieren. Sie können einen FHIR-Importauftrag mit dem AWS-Managementkonsole, AWS CLI, oder AWS SDKs starten. Verwenden Sie native AWS HealthLake Aktionen, um FHIR-Importaufträge zu starten, zu beschreiben und aufzulisten.

**Wichtig**  
HealthLake unterstützt die [FHIR R4-Spezifikation für den Austausch](https://hl7.org/fhir/R4/index.html) von Gesundheitsdaten. Bei Bedarf können Sie mit einem [AWS HealthLake Partner](https://aws.amazon.com/healthlake/partners/) zusammenarbeiten, um Ihre Gesundheitsdaten vor dem Import in das FHIR R4-Format zu konvertieren.

Wenn Sie einen FHIR-Importauftrag starten, geben Sie einen Amazon S3 S3-Bucket-Eingabespeicherort, einen Amazon S3 S3-Bucket-Ausgabespeicherort (für Ergebnisse der Auftragsverarbeitung), eine IAM-Rolle, die HealthLake Zugriff auf Ihre Amazon S3 S3-Buckets gewährt, und einen kundeneigenen Schlüssel an. AWS AWS Key Management Service Weitere Informationen finden Sie unter [Berechtigungen für Importaufträge einrichten](getting-started-setting-up.md#setting-up-import-permissions).

**Anmerkung**  
Sie können Importaufträge in eine Warteschlange stellen. Die asynchronen Importaufträge werden nach dem FIFO-Verfahren (First In First Out) verarbeitet. Sie können Jobs auf die gleiche Weise in die Warteschlange stellen, wie Sie Importaufträge starten. Wenn gerade einer in Bearbeitung ist, wird er einfach in die Warteschlange gestellt. Sie können FHIR-Ressourcen erstellen, lesen, aktualisieren oder löschen, während ein Importauftrag ausgeführt wird.

HealthLake generiert eine `manifest.json` Datei für jeden FHIR-Importauftrag. Die Datei beschreibt sowohl die Erfolge als auch die Misserfolge eines FHIR-Importjobs. HealthLake gibt die `manifest.json` Datei in den Amazon S3 S3-Bucket aus, der beim Starten eines FHIR-Importauftrags angegeben wurde. Protokolldateien sind in zwei Ordnern mit dem Namen `SUCCESS` und `FAILURE` organisiert. Verwenden Sie die `manifest.json` Datei als ersten Schritt bei der Behebung eines fehlgeschlagenen Importauftrags, da sie Einzelheiten zu jeder Datei enthält.

```
{
    "inputDataConfig": {
        "s3Uri": "s3://amzn-s3-demo-source-bucket/healthlake-input/invalidInput/"
    },
    "outputDataConfig": {
        "s3Uri": "s3://amzn-s3-demo-logging-bucket/32839038a2f47f17c2fe0f53f0c3a0ba-FHIR_IMPORT-19dd7bb7bcc8ee12a09bf6d322744a3d/",
        "encryptionKeyID": "arn:aws:kms:us-west-2:123456789012:key/fbbbfee3-20b3-42a5-a99d-c48c655ed545"
    },
    "successOutput": {
        "successOutputS3Uri": "s3://amzn-s3-demo-logging-bucket/32839038a2f47f17c2fe0f53f0c3a0ba-FHIR_IMPORT-19dd7bb7bcc8ee12a09bf6d322744a3d/SUCCESS/"
    },
    "failureOutput": {
        "failureOutputS3Uri": "s3://amzn-s3-demo-logging-bucket/32839038a2f47f17c2fe0f53f0c3a0ba-FHIR_IMPORT-19dd7bb7bcc8ee12a09bf6d322744a3d/FAILURE/"
    },
    "numberOfScannedFiles": 1,
    "numberOfFilesImported": 1,
    "sizeOfScannedFilesInMB": 0.023627,
    "sizeOfDataImportedSuccessfullyInMB": 0.011232,
    "numberOfResourcesScanned": 9,
    "numberOfResourcesImportedSuccessfully": 4,
    "numberOfResourcesWithCustomerError": 5,
    "numberOfResourcesWithServerError": 0
}
```

**Konfiguration der Validierungsebene für Importe**  


Wenn Sie einen FHIR-Importjob starten, können Sie optional eine angeben, `ValidationLevel` die auf jede Ressource angewendet werden soll. AWS HealthLake unterstützt derzeit die folgenden Validierungsstufen:
+ `strict`: Ressourcen werden anhand des Profilelements der Ressource oder der R4-Spezifikation, falls kein Profil vorhanden ist, validiert. Dies ist die Standardvalidierungsebene für AWS HealthLake.
+ `structure-only`: Ressourcen werden anhand von R4 validiert, wobei alle referenzierten Profile ignoriert werden.
+ `minimal`: Ressourcen werden minimal validiert, wobei bestimmte R4-Regeln ignoriert werden. Ressourcen, die die erforderlichen Strukturprüfungen nicht bestehen, search/analytics werden aktualisiert und enthalten nun eine Warnung zur Prüfung.

Beim Import mit der `minimal` Validierungsebene können zusätzliche Protokolldateien in einem Ordner mit dem Namen generiert werden`SUCCESS_WITH_SEARCH_VALIDATION_FAILURES`. Ressourcen in den Protokolldateien dieses Ordners wurden in Ihren Datenspeicher aufgenommen, obwohl die suchbezogenen Validierungsprüfungen nicht bestanden haben. Dies bedeutet, dass bestimmte Aspekte Ihrer FHIR-Ressource laut FHIR ungültig waren und falsch formatierte Felder möglicherweise nicht durchsuchbar sind. An diese Ressourcen wird ein `extension` Anhang angehängt, in dem der Fehler beschrieben wird.

**Topics**
+ [Einen Importjob starten](importing-fhir-data-start.md)
+ [Eigenschaften von Importaufträgen abrufen](importing-fhir-data-describe.md)
+ [Importaufträge auflisten](importing-fhir-data-list.md)

# Einen FHIR-Importjob starten
<a name="importing-fhir-data-start"></a>

Wird verwendet`StartFHIRImportJob`, um einen FHIR-Importauftrag in einen HealthLake Datenspeicher zu starten. Die folgenden Menüs enthalten eine Vorgehensweise für das AWS-Managementkonsole und Codebeispiele für AWS CLI und AWS SDKs. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_StartFHIRImportJob.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_StartFHIRImportJob.html) in der *AWS HealthLake -API-Referenz*.

**Wichtig**  
HealthLake unterstützt die [FHIR R4-Spezifikation](https://hl7.org/fhir/R4/index.html) für den Austausch von Gesundheitsdaten. Bei Bedarf können Sie mit einem [AWS HealthLake Partner](https://aws.amazon.com/healthlake/partners/) zusammenarbeiten, um Ihre Gesundheitsdaten vor dem Import in das FHIR R4-Format zu konvertieren.

**So starten Sie einen FHIR-Importjob**  
Wählen Sie ein Menü, das Ihren Zugriffspräferenzen für entspricht. AWS HealthLake

## AWS CLI und SDKs
<a name="start-import-job-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**So starten Sie einen FHIR-Importjob**  
Das folgende `start-fhir-import-job` Beispiel zeigt, wie Sie einen FHIR-Importauftrag mit AWS HealthLake starten.  

```
aws healthlake start-fhir-import-job \
    --input-data-config S3Uri="s3://(Bucket Name)/(Prefix Name)/" \
    --job-output-data-config '{"S3Configuration": {"S3Uri":"s3://(Bucket Name)/(Prefix Name)/","KmsKeyId":"arn:aws:kms:us-east-1:012345678910:key/d330e7fc-b56c-4216-a250-f4c43ef46e83"}}' \
    --datastore-id (Data store ID) \
    --data-access-role-arn "arn:aws:iam::(AWS Account ID):role/(Role Name)"
```
Ausgabe:  

```
{
    "DatastoreId": "(Data store ID)",
    "JobStatus": "SUBMITTED",
    "JobId": "c145fbb27b192af392f8ce6e7838e34f"
}
```
Weitere Informationen finden Sie im *AWS HealthLake Entwicklerhandbuch* unter [Dateien in einen FHIR-Datenspeicher importieren](https://docs.aws.amazon.com/healthlake/latest/devguide/import-datastore.html).  
+  API-Einzelheiten finden Sie unter [FHIRImportJob starten](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/start-fhir-import-job.html) in der *AWS CLI Befehlsreferenz*. 

------
#### [ Python ]

**SDK für Python (Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def start_fhir_import_job(
        self,
        job_name: str,
        datastore_id: str,
        input_s3_uri: str,
        job_output_s3_uri: str,
        kms_key_id: str,
        data_access_role_arn: str,
    ) -> dict[str, str]:
        """
        Starts a HealthLake import job.
        :param job_name: The import job name.
        :param datastore_id: The data store ID.
        :param input_s3_uri: The input S3 URI.
        :param job_output_s3_uri: The job output S3 URI.
        :param kms_key_id: The KMS key ID associated with the output S3 bucket.
        :param data_access_role_arn: The data access role ARN.
        :return: The import job.
        """
        try:
            response = self.health_lake_client.start_fhir_import_job(
                JobName=job_name,
                InputDataConfig={"S3Uri": input_s3_uri},
                JobOutputDataConfig={
                    "S3Configuration": {
                        "S3Uri": job_output_s3_uri,
                        "KmsKeyId": kms_key_id,
                    }
                },
                DataAccessRoleArn=data_access_role_arn,
                DatastoreId=datastore_id,
            )
            return response
        except ClientError as err:
            logger.exception(
                "Couldn't start import job. Here's why %s",
                err.response["Error"]["Message"],
            )
            raise
```
+  Einzelheiten zur API finden Sie unter [Start FHIRImport Job](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/StartFHIRImportJob) in *AWS SDK for Python (Boto3) API-Referenz*. 
 Es gibt noch mehr dazu. GitHub Hier finden Sie das vollständige Beispiel und erfahren, wie Sie das [AWS -Code-Beispiel-](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples) einrichten und ausführen. 

------
#### [ SAP ABAP ]

**SDK für SAP ABAP**  
 Es gibt noch mehr dazu. GitHub Hier finden Sie das vollständige Beispiel und erfahren, wie Sie das [AWS -Code-Beispiel-](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples) einrichten und ausführen. 

```
    TRY.
        " iv_job_name = 'MyImportJob'
        " iv_input_s3_uri = 's3://my-bucket/import/data.ndjson'
        " iv_job_output_s3_uri = 's3://my-bucket/import/output/'
        " iv_kms_key_id = 'arn:aws:kms:us-east-1:123456789012:key/12345678-1234-1234-1234-123456789012'
        " iv_data_access_role_arn = 'arn:aws:iam::123456789012:role/HealthLakeImportRole'
        oo_result = lo_hll->startfhirimportjob(
          iv_jobname = iv_job_name
          io_inputdataconfig = NEW /aws1/cl_hllinputdataconfig( iv_s3uri = iv_input_s3_uri )
          io_joboutputdataconfig = NEW /aws1/cl_hlloutputdataconfig(
            io_s3configuration = NEW /aws1/cl_hlls3configuration(
              iv_s3uri = iv_job_output_s3_uri
              iv_kmskeyid = iv_kms_key_id
            )
          )
          iv_dataaccessrolearn = iv_data_access_role_arn
          iv_datastoreid = iv_datastore_id
        ).
        DATA(lv_job_id) = oo_result->get_jobid( ).
        MESSAGE |Import job started with ID { lv_job_id }.| TYPE 'I'.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        DATA(lv_error) = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
      CATCH /aws1/cx_hllthrottlingex INTO DATA(lo_throttling_ex).
        lv_error = |Throttling error: { lo_throttling_ex->av_err_code }-{ lo_throttling_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_throttling_ex.
      CATCH /aws1/cx_hllaccessdeniedex INTO DATA(lo_access_ex).
        lv_error = |Access denied: { lo_access_ex->av_err_code }-{ lo_access_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_access_ex.
    ENDTRY.
```
+  API-Details finden Sie unter *Referenz zum [Starten FHIRImport eines Job](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html) im AWS SDK für SAP ABAP API.* 

------

**Beispiel für die Verfügbarkeit**  
Sie können nicht finden, was Sie brauchen? Fordern Sie über den Link **Feedback geben** in der rechten Seitenleiste dieser Seite ein Codebeispiel an.

## AWS Konsole
<a name="start-import-job-console"></a>

1. Melden Sie sich auf der Seite [Datenspeicher](https://console.aws.amazon.com/healthlake/home#/list-datastores) in der HealthLake Konsole an.

1. Wählen Sie einen Datenspeicher aus.

1. Wählen Sie **Importieren** aus.

   Die **Importseite** wird geöffnet.

1. Geben Sie im Bereich **Eingabedaten** die folgenden Informationen ein:
   + **Speicherort der Eingabedaten in Amazon S3**

1. Geben **Sie im Abschnitt Ausgabedateien importieren** die folgenden Informationen ein:
   + **Speicherort der Importausgabedateien in Amazon S3**
   + **Verschlüsselung der Importausgabedateien**

1. Wählen Sie im Abschnitt **Zugriffsberechtigungen** die **Option Bestehende IAM-Dienstrolle verwenden** und wählen Sie die Rolle im Menü **Servicerollenname** aus, oder wählen Sie **IAM-Rolle erstellen** aus.

1. Wählen Sie **Daten importieren**.
**Anmerkung**  
Wählen Sie beim Import im Banner oben auf der Seite die Option **Job-ID kopieren** aus. Sie können die verwenden [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRImportJob.html#HealthLake-DescribeFHIRImportJob-request-JobId](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRImportJob.html#HealthLake-DescribeFHIRImportJob-request-JobId), um die Eigenschaften des Importauftrags anzufordern, indem Sie die verwenden AWS CLI. Weitere Informationen finden Sie unter [Eigenschaften von FHIR-Importaufträgen abrufen](importing-fhir-data-describe.md).

# Eigenschaften von FHIR-Importaufträgen abrufen
<a name="importing-fhir-data-describe"></a>

Wird verwendet`DescribeFHIRImportJob`, um die Eigenschaften von FHIR-Importaufträgen abzurufen. Die folgenden Menüs enthalten eine Vorgehensweise für das AWS-Managementkonsole und Codebeispiele für AWS CLI und AWS SDKs. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRImportJob.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRImportJob.html) in der *AWS HealthLake -API-Referenz*.

**Um die Eigenschaften von FHIR-Importaufträgen abzurufen**  
Wählen Sie ein Menü, das Ihren Zugriffspräferenzen für entspricht AWS HealthLake.

## AWS CLI und SDKs
<a name="describe-job-import-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**So beschreiben Sie einen FHIR-Importjob**  
Das folgende `describe-fhir-import-job` Beispiel zeigt, wie Sie die Eigenschaften eines FHIR-Importjobs mithilfe AWS HealthLake von lernen können.  

```
aws healthlake describe-fhir-import-job \
    --datastore-id (Data store ID) \
    --job-id c145fbb27b192af392f8ce6e7838e34f
```
Ausgabe:  

```
{
    "ImportJobProperties": {
    "InputDataConfig": {
        "S3Uri": "s3://(Bucket Name)/(Prefix Name)/"
        { "arrayitem2": 2 }
    },
    "DataAccessRoleArn": "arn:aws:iam::(AWS Account ID):role/(Role Name)",
    "JobStatus": "COMPLETED",
    "JobId": "c145fbb27b192af392f8ce6e7838e34f",
    "SubmitTime": 1606272542.161,
    "EndTime": 1606272609.497,
    "DatastoreId": "(Data store ID)"
    }
}
```
Weitere Informationen finden Sie im *AWS HealthLake Entwicklerhandbuch* unter [Dateien in einen FHIR-Datenspeicher importieren](https://docs.aws.amazon.com/healthlake/latest/devguide/import-datastore.html).  
+  Einzelheiten zur API finden Sie unter [FHIRImportJob beschreiben](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/describe-fhir-import-job.html) in der *AWS CLI Befehlsreferenz*. 

------
#### [ Python ]

**SDK für Python (Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def describe_fhir_import_job(
        self, datastore_id: str, job_id: str
    ) -> dict[str, any]:
        """
        Describes a HealthLake import job.
        :param datastore_id: The data store ID.
        :param job_id: The import job ID.
        :return: The import job description.
        """
        try:
            response = self.health_lake_client.describe_fhir_import_job(
                DatastoreId=datastore_id, JobId=job_id
            )
            return response["ImportJobProperties"]
        except ClientError as err:
            logger.exception(
                "Couldn't describe import job with ID %s. Here's why %s",
                job_id,
                err.response["Error"]["Message"],
            )
            raise
```
+  Einzelheiten zur API finden Sie unter [FHIRImportDescribe Job](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/DescribeFHIRImportJob) in *AWS SDK for Python (Boto3) API-Referenz*. 
 Es gibt noch mehr dazu. GitHub Hier finden Sie das vollständige Beispiel und erfahren, wie Sie das [AWS -Code-Beispiel-](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples) einrichten und ausführen. 

------
#### [ SAP ABAP ]

**SDK für SAP ABAP**  
 Es gibt noch mehr dazu. GitHub Hier finden Sie das vollständige Beispiel und erfahren, wie Sie das [AWS -Code-Beispiel-](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples) einrichten und ausführen. 

```
    TRY.
        " iv_datastore_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        " iv_job_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        oo_result = lo_hll->describefhirimportjob(
          iv_datastoreid = iv_datastore_id
          iv_jobid = iv_job_id
        ).
        DATA(lo_import_job_properties) = oo_result->get_importjobproperties( ).
        IF lo_import_job_properties IS BOUND.
          DATA(lv_job_status) = lo_import_job_properties->get_jobstatus( ).
          MESSAGE |Import job status: { lv_job_status }.| TYPE 'I'.
        ENDIF.
      CATCH /aws1/cx_hllresourcenotfoundex INTO DATA(lo_notfound_ex).
        DATA(lv_error) = |Resource not found: { lo_notfound_ex->av_err_code }-{ lo_notfound_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_notfound_ex.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        lv_error = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
    ENDTRY.
```
+  Einzelheiten zur API finden Sie unter [FHIRImportDescribe Job](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html) in *AWS SDK for SAP ABAP API-Referenz.* 

------

**Beispiel für die Verfügbarkeit**  
Sie können nicht finden, was Sie brauchen? Fordern Sie über den Link **Feedback geben** in der rechten Seitenleiste dieser Seite ein Codebeispiel an.

## AWS Konsole
<a name="describe-import-job-console"></a>

**Anmerkung**  
Informationen zum FHIR-Importauftrag sind in der HealthLake Konsole nicht verfügbar. Verwenden Sie stattdessen die Option AWS CLI with, `DescribeFHIRImportJob` um Eigenschaften von Importaufträgen anzufordern, wie [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ImportJobProperties.html#HealthLake-Type-ImportJobProperties-JobStatus](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ImportJobProperties.html#HealthLake-Type-ImportJobProperties-JobStatus)z. Weitere Informationen finden Sie im AWS CLI Beispiel auf dieser Seite.

# Auflisten von FHIR-Importaufträgen
<a name="importing-fhir-data-list"></a>

Dient `ListFHIRImportJobs` zum Auflisten von FHIR-Importaufträgen für einen aktiven HealthLake Datenspeicher. Die folgenden Menüs enthalten eine Vorgehensweise für das AWS-Managementkonsole und Codebeispiele für AWS CLI und AWS SDKs. Weitere Informationen finden Sie unter [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ListFHIRImportJobs.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ListFHIRImportJobs.html) in der *AWS HealthLake -API-Referenz*.

**Um FHIR-Importaufträge aufzulisten**  
Wählen Sie ein Menü, das Ihren Zugriffspräferenzen für entspricht AWS HealthLake.

## AWS CLI und SDKs
<a name="list-import-jobs-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**So listen Sie alle FHIR-Importjobs auf**  
Das folgende Beispiel für `list-fhir-import-jobs` zeigt, wie Sie mit dem Befehl eine Liste aller Importjobs anzeigen, die mit einem Konto verknüpft sind.  

```
aws healthlake list-fhir-import-jobs \
    --datastore-id (Data store ID) \
    --submitted-before (DATE like 2024-10-13T19:00:00Z) \
    --submitted-after (DATE like 2020-10-13T19:00:00Z ) \
    --job-name "FHIR-IMPORT" \
    --job-status SUBMITTED  \
    -max-results (Integer between 1 and 500)
```
Ausgabe:  

```
{
    "ImportJobPropertiesList": [
        {
            "JobId": "c0fddbf76f238297632d4aebdbfc9ddf",
            "JobStatus": "COMPLETED",
            "SubmitTime": "2024-11-20T10:08:46.813000-05:00",
            "EndTime": "2024-11-20T10:10:09.093000-05:00",
            "DatastoreId": "(Data store ID)",
            "InputDataConfig": {
                "S3Uri": "s3://(Bucket Name)/(Prefix Name)/"
            },
            "JobOutputDataConfig": {
                "S3Configuration": {
                    "S3Uri": "s3://(Bucket Name)/import/6407b9ae4c2def3cb6f1a46a0c599ec0-FHIR_IMPORT-c0fddbf76f238297632d4aebdbfc9ddf/",
                    "KmsKeyId": "arn:aws:kms:us-east-1:123456789012:key/b7f645cb-e564-4981-8672-9e012d1ff1a0"
                }
            },
            "JobProgressReport": {
                "TotalNumberOfScannedFiles": 1,
                "TotalSizeOfScannedFilesInMB": 0.001798,
                "TotalNumberOfImportedFiles": 1,
                "TotalNumberOfResourcesScanned": 1,
                "TotalNumberOfResourcesImported": 1,
                "TotalNumberOfResourcesWithCustomerError": 0,
                "TotalNumberOfFilesReadWithCustomerError": 0,
                "Throughput": 0.0
            },
            "DataAccessRoleArn": "arn:aws:iam::(AWS Account ID):role/(Role Name)"
        }
    ]
}
```
Weitere Informationen finden Sie im AWS HealthLake Entwicklerhandbuch unter [Dateien in den FHIR-Datenspeicher importieren](https://docs.aws.amazon.com/healthlake/latest/devguide/import-examples.html).  
+  Einzelheiten zur API finden Sie unter [FHIRImportJobs in der *AWS CLI Befehlsreferenz* auflisten](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/list-fhir-import-jobs.html). 

------
#### [ Python ]

**SDK für Python (Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def list_fhir_import_jobs(
        self,
        datastore_id: str,
        job_name: str = None,
        job_status: str = None,
        submitted_before: datetime = None,
        submitted_after: datetime = None,
    ) -> list[dict[str, any]]:
        """
        Lists HealthLake import jobs satisfying the conditions.
        :param datastore_id: The data store ID.
        :param job_name: The import job name.
        :param job_status: The import job status.
        :param submitted_before: The import job submitted before the specified date.
        :param submitted_after: The import job submitted after the specified date.
        :return: A list of import jobs.
        """
        try:
            parameters = {"DatastoreId": datastore_id}
            if job_name is not None:
                parameters["JobName"] = job_name
            if job_status is not None:
                parameters["JobStatus"] = job_status
            if submitted_before is not None:
                parameters["SubmittedBefore"] = submitted_before
            if submitted_after is not None:
                parameters["SubmittedAfter"] = submitted_after
            next_token = None
            jobs = []
            # Loop through paginated results.
            while True:
                if next_token is not None:
                    parameters["NextToken"] = next_token
                response = self.health_lake_client.list_fhir_import_jobs(**parameters)
                jobs.extend(response["ImportJobPropertiesList"])
                if "NextToken" in response:
                    next_token = response["NextToken"]
                else:
                    break
            return jobs
        except ClientError as err:
            logger.exception(
                "Couldn't list import jobs. Here's why %s",
                err.response["Error"]["Message"],
            )
            raise
```
+  Einzelheiten zur API finden Sie unter [List FHIRImport Jobs](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/ListFHIRImportJobs) in *AWS SDK for Python (Boto3) API-Referenz*. 
 Es gibt noch mehr dazu. GitHub Hier finden Sie das vollständige Beispiel und erfahren, wie Sie das [AWS -Code-Beispiel-](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples) einrichten und ausführen. 

------
#### [ SAP ABAP ]

**SDK für SAP ABAP**  
 Es gibt noch mehr dazu. GitHub Hier finden Sie das vollständige Beispiel und erfahren, wie Sie das [AWS -Code-Beispiel-](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples) einrichten und ausführen. 

```
    TRY.
        " iv_datastore_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        IF iv_submitted_after IS NOT INITIAL.
          oo_result = lo_hll->listfhirimportjobs(
            iv_datastoreid = iv_datastore_id
            iv_submittedafter = iv_submitted_after
          ).
        ELSE.
          oo_result = lo_hll->listfhirimportjobs(
            iv_datastoreid = iv_datastore_id
          ).
        ENDIF.
        DATA(lt_import_jobs) = oo_result->get_importjobpropertieslist( ).
        DATA(lv_job_count) = lines( lt_import_jobs ).
        MESSAGE |Found { lv_job_count } import job(s).| TYPE 'I'.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        DATA(lv_error) = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
      CATCH /aws1/cx_hllresourcenotfoundex INTO DATA(lo_notfound_ex).
        lv_error = |Resource not found: { lo_notfound_ex->av_err_code }-{ lo_notfound_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_notfound_ex.
    ENDTRY.
```
+  Einzelheiten zur API finden Sie in der *Referenz zum [FHIRImportAuflisten von Aufträgen](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html) im AWS SDK für SAP ABAP API.* 

------

**Beispiel für die Verfügbarkeit**  
Sie können nicht finden, was Sie brauchen? Fordern Sie über den Link **Feedback geben** in der rechten Seitenleiste dieser Seite ein Codebeispiel an.

## AWS Konsole
<a name="list-import-jobs-console"></a>

**Anmerkung**  
Informationen zum FHIR-Importauftrag sind in der HealthLake Konsole nicht verfügbar. Verwenden Sie stattdessen das „ AWS CLI with“, `ListFHIRImportJobs` um alle FHIR-Importaufträge aufzulisten. Weitere Informationen finden Sie im AWS CLI Beispiel auf dieser Seite.