Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Listado de trabajos de importación del FHIR
Se usa ListFHIRImportJobs para enumerar los trabajos de importación del FHIR para un almacén de HealthLake datos activo. Los siguientes menús proporcionan un procedimiento Consola de administración de AWS y ejemplos de código para AWS CLI y AWS
SDKs. Para obtener más información, consulta ListFHIRImportJobs en la AWS HealthLake Referencia de la API de .
Para enumerar los trabajos de importación del FHIR
Elija un menú en función de sus preferencias de acceso a AWS HealthLake.
- CLI
-
- AWS CLI
-
Para enumerar todos los trabajos de importación de FHIR
En el siguiente ejemplo de
list-fhir-import-jobs, se muestra cómo utilizar el comando para ver una lista de todos los trabajos de importación asociados a una cuenta.aws healthlake list-fhir-import-jobs \ --datastore-id(DatastoreID)\ --submitted-before(DATElike2024-10-13T19:00:00Z)\ --submitted-after(DATElike2020-10-13T19:00:00Z)\ --job-name"FHIR-IMPORT"\ --job-statusSUBMITTED\-max-results(Integerbetween1and500)Salida:
{ "ImportJobPropertiesList": [ { "JobId": "c0fddbf76f238297632d4aebdbfc9ddf", "JobStatus": "COMPLETED", "SubmitTime": "2024-11-20T10:08:46.813000-05:00", "EndTime": "2024-11-20T10:10:09.093000-05:00", "DatastoreId": "(Data store ID)", "InputDataConfig": { "S3Uri": "s3://(Bucket Name)/(Prefix Name)/" }, "JobOutputDataConfig": { "S3Configuration": { "S3Uri": "s3://(Bucket Name)/import/6407b9ae4c2def3cb6f1a46a0c599ec0-FHIR_IMPORT-c0fddbf76f238297632d4aebdbfc9ddf/", "KmsKeyId": "arn:aws:kms:us-east-1:123456789012:key/b7f645cb-e564-4981-8672-9e012d1ff1a0" } }, "JobProgressReport": { "TotalNumberOfScannedFiles": 1, "TotalSizeOfScannedFilesInMB": 0.001798, "TotalNumberOfImportedFiles": 1, "TotalNumberOfResourcesScanned": 1, "TotalNumberOfResourcesImported": 1, "TotalNumberOfResourcesWithCustomerError": 0, "TotalNumberOfFilesReadWithCustomerError": 0, "Throughput": 0.0 }, "DataAccessRoleArn": "arn:aws:iam::(AWS Account ID):role/(Role Name)" } ] }Para obtener más información, consulte Importación de archivos al almacén de datos del FHIR en la Guía para AWS HealthLake desarrolladores.
-
Para obtener más información sobre la API, consulte Listar FHIRImport trabajos
en la referencia de AWS CLI comandos.
-
- Python
-
- SDK para Python (Boto3)
-
@classmethod def from_client(cls) -> "HealthLakeWrapper": """ Creates a HealthLakeWrapper instance with a default AWS HealthLake client. :return: An instance of HealthLakeWrapper initialized with the default HealthLake client. """ health_lake_client = boto3.client("healthlake") return cls(health_lake_client) def list_fhir_import_jobs( self, datastore_id: str, job_name: str = None, job_status: str = None, submitted_before: datetime = None, submitted_after: datetime = None, ) -> list[dict[str, any]]: """ Lists HealthLake import jobs satisfying the conditions. :param datastore_id: The data store ID. :param job_name: The import job name. :param job_status: The import job status. :param submitted_before: The import job submitted before the specified date. :param submitted_after: The import job submitted after the specified date. :return: A list of import jobs. """ try: parameters = {"DatastoreId": datastore_id} if job_name is not None: parameters["JobName"] = job_name if job_status is not None: parameters["JobStatus"] = job_status if submitted_before is not None: parameters["SubmittedBefore"] = submitted_before if submitted_after is not None: parameters["SubmittedAfter"] = submitted_after next_token = None jobs = [] # Loop through paginated results. while True: if next_token is not None: parameters["NextToken"] = next_token response = self.health_lake_client.list_fhir_import_jobs(**parameters) jobs.extend(response["ImportJobPropertiesList"]) if "NextToken" in response: next_token = response["NextToken"] else: break return jobs except ClientError as err: logger.exception( "Couldn't list import jobs. Here's why %s", err.response["Error"]["Message"], ) raise-
Para obtener más información sobre la API, consulta la sección Lista de FHIRImport trabajos en la referencia de la API del AWS SDK for Python (Boto3).
nota
Hay más información al respecto. GitHub Busque el ejemplo completo y aprenda a configurar y ejecutar en el Repositorio de ejemplos de código de AWS
. -
- SAP ABAP
-
- SDK para SAP ABAP
-
nota
Hay más información GitHub. Busque el ejemplo completo y aprenda a configurar y ejecutar en el Repositorio de ejemplos de código de AWS
. TRY. " iv_datastore_id = 'a1b2c3d4e5f6g7h8i9j0k1l2m3n4o5p6' IF iv_submitted_after IS NOT INITIAL. oo_result = lo_hll->listfhirimportjobs( iv_datastoreid = iv_datastore_id iv_submittedafter = iv_submitted_after ). ELSE. oo_result = lo_hll->listfhirimportjobs( iv_datastoreid = iv_datastore_id ). ENDIF. DATA(lt_import_jobs) = oo_result->get_importjobpropertieslist( ). DATA(lv_job_count) = lines( lt_import_jobs ). MESSAGE |Found { lv_job_count } import job(s).| TYPE 'I'. CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex). DATA(lv_error) = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|. MESSAGE lv_error TYPE 'I'. RAISE EXCEPTION lo_validation_ex. CATCH /aws1/cx_hllresourcenotfoundex INTO DATA(lo_notfound_ex). lv_error = |Resource not found: { lo_notfound_ex->av_err_code }-{ lo_notfound_ex->av_err_msg }|. MESSAGE lv_error TYPE 'I'. RAISE EXCEPTION lo_notfound_ex. ENDTRY.-
Para obtener más información sobre la API, consulte Listar FHIRImport trabajos en el AWS SDK para obtener una referencia sobre la API ABAP de SAP.
-
Ejemplo de disponibilidad
¿No encuentra lo que necesita? Solicita un ejemplo de código mediante el enlace Enviar comentarios en la barra lateral derecha de esta página.
nota
La información sobre los trabajos de importación del FHIR no está disponible en la HealthLake consola. En su lugar, utilice AWS CLI
with ListFHIRImportJobs para enumerar todos los trabajos de importación del FHIR. Para obtener más información, consulte el AWS CLI ejemplo de esta página.