

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Importazione di dati FHIR con AWS HealthLake
<a name="importing-fhir-data"></a>

Dopo aver creato un HealthLake data store, il passaggio successivo consiste nell'importare i file da un bucket Amazon Simple Storage Service (S3). Puoi avviare un processo di importazione FHIR utilizzando Console di gestione AWS, AWS CLI o. AWS SDKs AWS HealthLake Utilizzate le azioni native per avviare, descrivere ed elencare i lavori di importazione FHIR.

**Importante**  
HealthLake supporta la [specifica FHIR R4](https://hl7.org/fhir/R4/index.html) per lo scambio di dati sanitari. Se necessario, puoi collaborare con un [AWS HealthLake partner](https://aws.amazon.com/healthlake/partners/) per convertire i tuoi dati sanitari in formato FHIR R4 prima dell'importazione.

Quando avvii un processo di importazione FHIR, specifichi una posizione di input del bucket Amazon S3, una posizione di output del bucket Amazon S3 (per i risultati di elaborazione del lavoro), un ruolo IAM che concede HealthLake l'accesso ai bucket Amazon S3 e una chiave di proprietà o di proprietà del cliente. AWS AWS Key Management Service Per ulteriori informazioni, consulta [Impostazione delle autorizzazioni per i lavori di importazione](getting-started-setting-up.md#setting-up-import-permissions).

**Nota**  
Puoi mettere in coda i lavori di importazione. I lavori di importazione asincroni vengono elaborati in modo FIFO (First In First Out). È possibile mettere in coda i lavori nello stesso modo in cui si avviano i lavori di importazione. Se ne è in corso uno, si metterà semplicemente in coda. È possibile creare, leggere, aggiornare o eliminare risorse FHIR mentre è in corso un processo di importazione.

HealthLake genera un `manifest.json` file per ogni processo di importazione FHIR. Il file descrive sia i successi che gli errori di un processo di importazione FHIR. HealthLake invia il `manifest.json` file nel bucket Amazon S3 specificato all'avvio di un processo di importazione FHIR. I file di registro sono organizzati in due cartelle, denominate e. `SUCCESS` `FAILURE` Utilizzate il `manifest.json` file come primo passo per la risoluzione dei problemi relativi a un processo di importazione non riuscito, in quanto fornisce dettagli su ogni file.

```
{
    "inputDataConfig": {
        "s3Uri": "s3://amzn-s3-demo-source-bucket/healthlake-input/invalidInput/"
    },
    "outputDataConfig": {
        "s3Uri": "s3://amzn-s3-demo-logging-bucket/32839038a2f47f17c2fe0f53f0c3a0ba-FHIR_IMPORT-19dd7bb7bcc8ee12a09bf6d322744a3d/",
        "encryptionKeyID": "arn:aws:kms:us-west-2:123456789012:key/fbbbfee3-20b3-42a5-a99d-c48c655ed545"
    },
    "successOutput": {
        "successOutputS3Uri": "s3://amzn-s3-demo-logging-bucket/32839038a2f47f17c2fe0f53f0c3a0ba-FHIR_IMPORT-19dd7bb7bcc8ee12a09bf6d322744a3d/SUCCESS/"
    },
    "failureOutput": {
        "failureOutputS3Uri": "s3://amzn-s3-demo-logging-bucket/32839038a2f47f17c2fe0f53f0c3a0ba-FHIR_IMPORT-19dd7bb7bcc8ee12a09bf6d322744a3d/FAILURE/"
    },
    "numberOfScannedFiles": 1,
    "numberOfFilesImported": 1,
    "sizeOfScannedFilesInMB": 0.023627,
    "sizeOfDataImportedSuccessfullyInMB": 0.011232,
    "numberOfResourcesScanned": 9,
    "numberOfResourcesImportedSuccessfully": 4,
    "numberOfResourcesWithCustomerError": 5,
    "numberOfResourcesWithServerError": 0
}
```

**Configurazione del livello di convalida per le importazioni**  


Quando si avvia un processo di importazione FHIR, è possibile facoltativamente specificare un `ValidationLevel` da applicare a ciascuna risorsa. AWS HealthLake attualmente supporta i seguenti livelli di convalida:
+ `strict`: Le risorse vengono convalidate in base all'elemento del profilo della risorsa o alla specifica R4 se non è presente alcun profilo. Questo è il livello di convalida predefinito per. AWS HealthLake
+ `structure-only`: Le risorse vengono convalidate rispetto a R4, ignorando i profili di riferimento.
+ `minimal`: Le risorse vengono convalidate minimamente, ignorando alcune regole R4. Le risorse che non superano i controlli di struttura richiesti search/analytics verranno aggiornate per includere un avviso per l'audit.

Quando si importa utilizzando il livello di `minimal` convalida, è possibile generare file di registro aggiuntivi in una cartella denominata. `SUCCESS_WITH_SEARCH_VALIDATION_FAILURES` Le risorse all'interno dei file di registro di questa cartella sono state inserite nel datastore nonostante i controlli di convalida relativi alla ricerca non abbiano avuto esito positivo. Ciò implica che alcuni aspetti della risorsa FHIR non erano validi secondo FHIR e che i campi con formato errato potrebbero non essere ricercabili. A queste risorse verrà `extension` aggiunta una descrizione di tale errore.

**Topics**
+ [Avvio di un processo di importazione](importing-fhir-data-start.md)
+ [Ottenere proprietà lavorative da importare](importing-fhir-data-describe.md)
+ [Elenco dei lavori di importazione](importing-fhir-data-list.md)

# Avvio di un processo di importazione FHIR
<a name="importing-fhir-data-start"></a>

Utilizzato `StartFHIRImportJob` per avviare un processo di importazione FHIR in un archivio HealthLake dati. I seguenti menu forniscono una procedura per Console di gestione AWS e alcuni esempi di codice per and. AWS CLI AWS SDKs Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_StartFHIRImportJob.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_StartFHIRImportJob.html) nella *documentazione di riferimento dell’API AWS HealthLake *.

**Importante**  
HealthLake supporta la [specifica FHIR R4](https://hl7.org/fhir/R4/index.html) per lo scambio di dati sanitari. Se necessario, puoi collaborare con un [AWS HealthLake partner](https://aws.amazon.com/healthlake/partners/) per convertire i tuoi dati sanitari in formato FHIR R4 prima dell'importazione.

**Come avviare un processo di importazione FHIR**  
Scegli un menu in base alle tue preferenze di accesso a. AWS HealthLake

## AWS CLI e SDKs
<a name="start-import-job-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**Come avviare un processo di importazione FHIR**  
L'`start-fhir-import-job`esempio seguente mostra come avviare un processo di importazione FHIR utilizzando AWS HealthLake.  

```
aws healthlake start-fhir-import-job \
    --input-data-config S3Uri="s3://(Bucket Name)/(Prefix Name)/" \
    --job-output-data-config '{"S3Configuration": {"S3Uri":"s3://(Bucket Name)/(Prefix Name)/","KmsKeyId":"arn:aws:kms:us-east-1:012345678910:key/d330e7fc-b56c-4216-a250-f4c43ef46e83"}}' \
    --datastore-id (Data store ID) \
    --data-access-role-arn "arn:aws:iam::(AWS Account ID):role/(Role Name)"
```
Output:  

```
{
    "DatastoreId": "(Data store ID)",
    "JobStatus": "SUBMITTED",
    "JobId": "c145fbb27b192af392f8ce6e7838e34f"
}
```
*Per ulteriori informazioni, consulta [Importazione di file in un data store FHIR](https://docs.aws.amazon.com/healthlake/latest/devguide/import-datastore.html) nella Guida per gli AWS HealthLake sviluppatori.*  
+  Per i dettagli sull'API, consulta [Start FHIRImport Job](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/start-fhir-import-job.html) in *AWS CLI Command Reference*. 

------
#### [ Python ]

**SDK per Python (Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def start_fhir_import_job(
        self,
        job_name: str,
        datastore_id: str,
        input_s3_uri: str,
        job_output_s3_uri: str,
        kms_key_id: str,
        data_access_role_arn: str,
    ) -> dict[str, str]:
        """
        Starts a HealthLake import job.
        :param job_name: The import job name.
        :param datastore_id: The data store ID.
        :param input_s3_uri: The input S3 URI.
        :param job_output_s3_uri: The job output S3 URI.
        :param kms_key_id: The KMS key ID associated with the output S3 bucket.
        :param data_access_role_arn: The data access role ARN.
        :return: The import job.
        """
        try:
            response = self.health_lake_client.start_fhir_import_job(
                JobName=job_name,
                InputDataConfig={"S3Uri": input_s3_uri},
                JobOutputDataConfig={
                    "S3Configuration": {
                        "S3Uri": job_output_s3_uri,
                        "KmsKeyId": kms_key_id,
                    }
                },
                DataAccessRoleArn=data_access_role_arn,
                DatastoreId=datastore_id,
            )
            return response
        except ClientError as err:
            logger.exception(
                "Couldn't start import job. Here's why %s",
                err.response["Error"]["Message"],
            )
            raise
```
+  Per i dettagli sull'API, consulta [Start FHIRImport Job](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/StartFHIRImportJob) in *AWS SDK for Python (Boto3) API Reference*. 
 C'è di più su. GitHub Trova l'esempio completo e scopri di più sulla configurazione e l'esecuzione nel [Repository di esempi di codice AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples). 

------
#### [ SAP ABAP ]

**SDK per SAP ABAP**  
 C'è altro da fare. GitHub Trova l'esempio completo e scopri di più sulla configurazione e l'esecuzione nel [Repository di esempi di codice AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples). 

```
    TRY.
        " iv_job_name = 'MyImportJob'
        " iv_input_s3_uri = 's3://my-bucket/import/data.ndjson'
        " iv_job_output_s3_uri = 's3://my-bucket/import/output/'
        " iv_kms_key_id = 'arn:aws:kms:us-east-1:123456789012:key/12345678-1234-1234-1234-123456789012'
        " iv_data_access_role_arn = 'arn:aws:iam::123456789012:role/HealthLakeImportRole'
        oo_result = lo_hll->startfhirimportjob(
          iv_jobname = iv_job_name
          io_inputdataconfig = NEW /aws1/cl_hllinputdataconfig( iv_s3uri = iv_input_s3_uri )
          io_joboutputdataconfig = NEW /aws1/cl_hlloutputdataconfig(
            io_s3configuration = NEW /aws1/cl_hlls3configuration(
              iv_s3uri = iv_job_output_s3_uri
              iv_kmskeyid = iv_kms_key_id
            )
          )
          iv_dataaccessrolearn = iv_data_access_role_arn
          iv_datastoreid = iv_datastore_id
        ).
        DATA(lv_job_id) = oo_result->get_jobid( ).
        MESSAGE |Import job started with ID { lv_job_id }.| TYPE 'I'.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        DATA(lv_error) = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
      CATCH /aws1/cx_hllthrottlingex INTO DATA(lo_throttling_ex).
        lv_error = |Throttling error: { lo_throttling_ex->av_err_code }-{ lo_throttling_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_throttling_ex.
      CATCH /aws1/cx_hllaccessdeniedex INTO DATA(lo_access_ex).
        lv_error = |Access denied: { lo_access_ex->av_err_code }-{ lo_access_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_access_ex.
    ENDTRY.
```
+  Per i dettagli sull'API, consulta [Start FHIRImport Job](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html) in *AWS SDK per il riferimento all'API SAP ABAP*. 

------

**Esempio di disponibilità**  
Non riesci a trovare quello che ti serve? Richiedi un esempio di codice utilizzando il link **Fornisci feedback** nella barra laterale destra di questa pagina.

## AWS Console
<a name="start-import-job-console"></a>

1. Accedi alla pagina degli [archivi dati](https://console.aws.amazon.com/healthlake/home#/list-datastores) sulla HealthLake console.

1. Scegli un data store.

1. Scegli **Importa**.

   Viene visualizzata la pagina **Importa**.

1. Nella sezione **Dati di input**, inserisci le seguenti informazioni:
   + **Posizione dei dati di input in Amazon S3**

1. Nella sezione **Importa file di output**, inserisci le seguenti informazioni:
   + **Importa la posizione dei file di output in Amazon S3**
   + **Importa la crittografia dei file di output**

1. Nella sezione **Autorizzazioni di accesso**, scegli **Usa un ruolo di servizio IAM esistente** e seleziona il ruolo dal menu **Service role name** oppure scegli **Crea un ruolo IAM**.

1. Scegli **Import data** (Importa dati).
**Nota**  
Durante l'importazione, scegli **Copia l'ID del lavoro** sul banner nella parte superiore della pagina. È possibile utilizzare il [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRImportJob.html#HealthLake-DescribeFHIRImportJob-request-JobId](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRImportJob.html#HealthLake-DescribeFHIRImportJob-request-JobId)per richiedere le proprietà del lavoro di importazione utilizzando AWS CLI. Per ulteriori informazioni, consulta [Ottenere proprietà lavorative importate da FHIR](importing-fhir-data-describe.md).

# Ottenere proprietà lavorative importate da FHIR
<a name="importing-fhir-data-describe"></a>

Utilizzatelo `DescribeFHIRImportJob` per ottenere le proprietà del lavoro di importazione FHIR. I seguenti menu forniscono una procedura per Console di gestione AWS e alcuni esempi di codice per and. AWS CLI AWS SDKs Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRImportJob.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_DescribeFHIRImportJob.html) nella *documentazione di riferimento dell’API AWS HealthLake *.

**Per ottenere FHIR, importate le proprietà del lavoro**  
Scegli un menu in base alle tue preferenze di accesso a AWS HealthLake.

## AWS CLI e SDKs
<a name="describe-job-import-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**Come descrivere un processo di importazione FHIR**  
L'`describe-fhir-import-job`esempio seguente mostra come apprendere le proprietà di un processo di importazione FHIR utilizzando AWS HealthLake.  

```
aws healthlake describe-fhir-import-job \
    --datastore-id (Data store ID) \
    --job-id c145fbb27b192af392f8ce6e7838e34f
```
Output:  

```
{
    "ImportJobProperties": {
    "InputDataConfig": {
        "S3Uri": "s3://(Bucket Name)/(Prefix Name)/"
        { "arrayitem2": 2 }
    },
    "DataAccessRoleArn": "arn:aws:iam::(AWS Account ID):role/(Role Name)",
    "JobStatus": "COMPLETED",
    "JobId": "c145fbb27b192af392f8ce6e7838e34f",
    "SubmitTime": 1606272542.161,
    "EndTime": 1606272609.497,
    "DatastoreId": "(Data store ID)"
    }
}
```
*Per ulteriori informazioni, consulta [Importazione di file in un data store FHIR](https://docs.aws.amazon.com/healthlake/latest/devguide/import-datastore.html) nella Guida per gli AWS HealthLake sviluppatori.*  
+  Per i dettagli sull'API, consulta [Descrivi FHIRImport Job](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/describe-fhir-import-job.html) in *AWS CLI Command Reference*. 

------
#### [ Python ]

**SDK per Python (Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def describe_fhir_import_job(
        self, datastore_id: str, job_id: str
    ) -> dict[str, any]:
        """
        Describes a HealthLake import job.
        :param datastore_id: The data store ID.
        :param job_id: The import job ID.
        :return: The import job description.
        """
        try:
            response = self.health_lake_client.describe_fhir_import_job(
                DatastoreId=datastore_id, JobId=job_id
            )
            return response["ImportJobProperties"]
        except ClientError as err:
            logger.exception(
                "Couldn't describe import job with ID %s. Here's why %s",
                job_id,
                err.response["Error"]["Message"],
            )
            raise
```
+  Per i dettagli sull'API, consulta [Descrivi FHIRImport Job](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/DescribeFHIRImportJob) in *AWS SDK for Python (Boto3) API Reference*. 
 C'è di più su. GitHub Trova l'esempio completo e scopri di più sulla configurazione e l'esecuzione nel [Repository di esempi di codice AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples). 

------
#### [ SAP ABAP ]

**SDK per SAP ABAP**  
 C'è altro da fare. GitHub Trova l'esempio completo e scopri di più sulla configurazione e l'esecuzione nel [Repository di esempi di codice AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples). 

```
    TRY.
        " iv_datastore_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        " iv_job_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        oo_result = lo_hll->describefhirimportjob(
          iv_datastoreid = iv_datastore_id
          iv_jobid = iv_job_id
        ).
        DATA(lo_import_job_properties) = oo_result->get_importjobproperties( ).
        IF lo_import_job_properties IS BOUND.
          DATA(lv_job_status) = lo_import_job_properties->get_jobstatus( ).
          MESSAGE |Import job status: { lv_job_status }.| TYPE 'I'.
        ENDIF.
      CATCH /aws1/cx_hllresourcenotfoundex INTO DATA(lo_notfound_ex).
        DATA(lv_error) = |Resource not found: { lo_notfound_ex->av_err_code }-{ lo_notfound_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_notfound_ex.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        lv_error = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
    ENDTRY.
```
+  Per i dettagli sull'API, consulta [Descrivi FHIRImport Job](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html) in *AWS SDK per il riferimento all'API SAP ABAP*. 

------

**Esempio di disponibilità**  
Non riesci a trovare quello che ti serve? Richiedi un esempio di codice utilizzando il link **Fornisci feedback** nella barra laterale destra di questa pagina.

## AWS Console
<a name="describe-import-job-console"></a>

**Nota**  
Le informazioni sul processo di importazione FHIR non sono disponibili sulla HealthLake console. Utilizza invece AWS CLI with `DescribeFHIRImportJob` per richiedere proprietà del processo di importazione come [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ImportJobProperties.html#HealthLake-Type-ImportJobProperties-JobStatus](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ImportJobProperties.html#HealthLake-Type-ImportJobProperties-JobStatus). Per ulteriori informazioni, consulta l' AWS CLI esempio in questa pagina.

# Elenco dei lavori di importazione FHIR
<a name="importing-fhir-data-list"></a>

`ListFHIRImportJobs`Da utilizzare per elencare i lavori di importazione FHIR per un archivio HealthLake dati attivo. I seguenti menu forniscono una procedura per Console di gestione AWS e alcuni esempi di codice per and. AWS CLI AWS SDKs Per ulteriori informazioni, consulta [https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ListFHIRImportJobs.html](https://docs.aws.amazon.com/healthlake/latest/APIReference/API_ListFHIRImportJobs.html) nella *documentazione di riferimento dell’API AWS HealthLake *.

**Per elencare i lavori di importazione FHIR**  
Scegliete un menu in base alle vostre preferenze di accesso a AWS HealthLake.

## AWS CLI e SDKs
<a name="list-import-jobs-cli-sdk"></a>

------
#### [ CLI ]

**AWS CLI**  
**Come elencare tutti i processi di importazione FHIR**  
L’esempio `list-fhir-import-jobs` seguente mostra come utilizzare il comando per visualizzare un elenco di tutti i processi di importazione associati a un account.  

```
aws healthlake list-fhir-import-jobs \
    --datastore-id (Data store ID) \
    --submitted-before (DATE like 2024-10-13T19:00:00Z) \
    --submitted-after (DATE like 2020-10-13T19:00:00Z ) \
    --job-name "FHIR-IMPORT" \
    --job-status SUBMITTED  \
    -max-results (Integer between 1 and 500)
```
Output:  

```
{
    "ImportJobPropertiesList": [
        {
            "JobId": "c0fddbf76f238297632d4aebdbfc9ddf",
            "JobStatus": "COMPLETED",
            "SubmitTime": "2024-11-20T10:08:46.813000-05:00",
            "EndTime": "2024-11-20T10:10:09.093000-05:00",
            "DatastoreId": "(Data store ID)",
            "InputDataConfig": {
                "S3Uri": "s3://(Bucket Name)/(Prefix Name)/"
            },
            "JobOutputDataConfig": {
                "S3Configuration": {
                    "S3Uri": "s3://(Bucket Name)/import/6407b9ae4c2def3cb6f1a46a0c599ec0-FHIR_IMPORT-c0fddbf76f238297632d4aebdbfc9ddf/",
                    "KmsKeyId": "arn:aws:kms:us-east-1:123456789012:key/b7f645cb-e564-4981-8672-9e012d1ff1a0"
                }
            },
            "JobProgressReport": {
                "TotalNumberOfScannedFiles": 1,
                "TotalSizeOfScannedFilesInMB": 0.001798,
                "TotalNumberOfImportedFiles": 1,
                "TotalNumberOfResourcesScanned": 1,
                "TotalNumberOfResourcesImported": 1,
                "TotalNumberOfResourcesWithCustomerError": 0,
                "TotalNumberOfFilesReadWithCustomerError": 0,
                "Throughput": 0.0
            },
            "DataAccessRoleArn": "arn:aws:iam::(AWS Account ID):role/(Role Name)"
        }
    ]
}
```
Per ulteriori informazioni, consulta [Importazione di file nell'archivio dati FHIR nella Guida per](https://docs.aws.amazon.com/healthlake/latest/devguide/import-examples.html) gli AWS HealthLake sviluppatori.  
+  Per i dettagli sull'API, consulta [List FHIRImport Jobs](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/healthlake/list-fhir-import-jobs.html) in *AWS CLI Command Reference*. 

------
#### [ Python ]

**SDK per Python (Boto3)**  

```
    @classmethod
    def from_client(cls) -> "HealthLakeWrapper":
        """
        Creates a HealthLakeWrapper instance with a default AWS HealthLake client.

        :return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
        """
        health_lake_client = boto3.client("healthlake")
        return cls(health_lake_client)


    def list_fhir_import_jobs(
        self,
        datastore_id: str,
        job_name: str = None,
        job_status: str = None,
        submitted_before: datetime = None,
        submitted_after: datetime = None,
    ) -> list[dict[str, any]]:
        """
        Lists HealthLake import jobs satisfying the conditions.
        :param datastore_id: The data store ID.
        :param job_name: The import job name.
        :param job_status: The import job status.
        :param submitted_before: The import job submitted before the specified date.
        :param submitted_after: The import job submitted after the specified date.
        :return: A list of import jobs.
        """
        try:
            parameters = {"DatastoreId": datastore_id}
            if job_name is not None:
                parameters["JobName"] = job_name
            if job_status is not None:
                parameters["JobStatus"] = job_status
            if submitted_before is not None:
                parameters["SubmittedBefore"] = submitted_before
            if submitted_after is not None:
                parameters["SubmittedAfter"] = submitted_after
            next_token = None
            jobs = []
            # Loop through paginated results.
            while True:
                if next_token is not None:
                    parameters["NextToken"] = next_token
                response = self.health_lake_client.list_fhir_import_jobs(**parameters)
                jobs.extend(response["ImportJobPropertiesList"])
                if "NextToken" in response:
                    next_token = response["NextToken"]
                else:
                    break
            return jobs
        except ClientError as err:
            logger.exception(
                "Couldn't list import jobs. Here's why %s",
                err.response["Error"]["Message"],
            )
            raise
```
+  Per i dettagli sull'API, consulta [List FHIRImport Jobs](https://docs.aws.amazon.com/goto/boto3/healthlake-2017-07-01/ListFHIRImportJobs) in *AWS SDK for Python (Boto3) API Reference*. 
 C'è di più su. GitHub Trova l'esempio completo e scopri di più sulla configurazione e l'esecuzione nel [Repository di esempi di codice AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/python/example_code/healthlake#code-examples). 

------
#### [ SAP ABAP ]

**SDK per SAP ABAP**  
 C'è altro da fare. GitHub Trova l'esempio completo e scopri di più sulla configurazione e l'esecuzione nel [Repository di esempi di codice AWS](https://github.com/awsdocs/aws-doc-sdk-examples/tree/main/sap-abap/services/hll#code-examples). 

```
    TRY.
        " iv_datastore_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6'
        IF iv_submitted_after IS NOT INITIAL.
          oo_result = lo_hll->listfhirimportjobs(
            iv_datastoreid = iv_datastore_id
            iv_submittedafter = iv_submitted_after
          ).
        ELSE.
          oo_result = lo_hll->listfhirimportjobs(
            iv_datastoreid = iv_datastore_id
          ).
        ENDIF.
        DATA(lt_import_jobs) = oo_result->get_importjobpropertieslist( ).
        DATA(lv_job_count) = lines( lt_import_jobs ).
        MESSAGE |Found { lv_job_count } import job(s).| TYPE 'I'.
      CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
        DATA(lv_error) = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_validation_ex.
      CATCH /aws1/cx_hllresourcenotfoundex INTO DATA(lo_notfound_ex).
        lv_error = |Resource not found: { lo_notfound_ex->av_err_code }-{ lo_notfound_ex->av_err_msg }|.
        MESSAGE lv_error TYPE 'I'.
        RAISE EXCEPTION lo_notfound_ex.
    ENDTRY.
```
+  Per i dettagli sull'API, consulta il riferimento all'API [List FHIRImport Jobs](https://docs.aws.amazon.com/sdk-for-sap-abap/v1/api/latest/index.html) in *AWS SDK for SAP ABAP*. 

------

**Esempio di disponibilità**  
Non riesci a trovare quello che ti serve? Richiedi un esempio di codice utilizzando il link **Fornisci feedback** nella barra laterale destra di questa pagina.

## AWS Console
<a name="list-import-jobs-console"></a>

**Nota**  
Le informazioni sul processo di importazione FHIR non sono disponibili sulla HealthLake console. Utilizzate invece AWS CLI with `ListFHIRImportJobs` per elencare tutti i processi di importazione FHIR. Per ulteriori informazioni, fate riferimento all' AWS CLI esempio in questa pagina.