Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Inicio de un trabajo de importación del FHIR
Se utiliza StartFHIRImportJob para iniciar un trabajo de importación del FHIR a un almacén de HealthLake datos. Los siguientes menús proporcionan un procedimiento Consola de administración de AWS y ejemplos de código para AWS CLI y AWS SDKs. Para obtener más información, consulta StartFHIRImportJob en la AWS HealthLake Referencia de la API de .
HealthLake es compatible con la especificación R4 del FHIR para el intercambio de datos de atención médica. Si es necesario, puede trabajar con un AWS HealthLake socio para convertir sus datos de salud al formato FHIR R4 antes de importarlos.
Para iniciar un trabajo de importación de FHIR
Elija un menú según sus preferencias de acceso a. AWS HealthLake
- CLI
-
- AWS CLI
-
Para iniciar un trabajo de importación de FHIR
El siguiente start-fhir-import-job ejemplo muestra cómo iniciar un trabajo de importación del FHIR utilizando AWS HealthLake.
aws healthlake start-fhir-import-job \
--input-data-config S3Uri="s3://(Bucket Name)/(Prefix Name)/" \
--job-output-data-config '{"S3Configuration": {"S3Uri":"s3://(Bucket Name)/(Prefix Name)/","KmsKeyId":"arn:aws:kms:us-east-1:012345678910:key/d330e7fc-b56c-4216-a250-f4c43ef46e83"}}' \
--datastore-id (Data store ID) \
--data-access-role-arn "arn:aws:iam::(AWS Account ID):role/(Role Name)"
Salida:
{
"DatastoreId": "(Data store ID)",
"JobStatus": "SUBMITTED",
"JobId": "c145fbb27b192af392f8ce6e7838e34f"
}
Para obtener más información, consulte Importación de archivos a un banco de datos del FHIR en la Guía para AWS HealthLake desarrolladores.
- Python
-
- SDK para Python (Boto3)
-
@classmethod
def from_client(cls) -> "HealthLakeWrapper":
"""
Creates a HealthLakeWrapper instance with a default AWS HealthLake client.
:return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
"""
health_lake_client = boto3.client("healthlake")
return cls(health_lake_client)
def start_fhir_import_job(
self,
job_name: str,
datastore_id: str,
input_s3_uri: str,
job_output_s3_uri: str,
kms_key_id: str,
data_access_role_arn: str,
) -> dict[str, str]:
"""
Starts a HealthLake import job.
:param job_name: The import job name.
:param datastore_id: The data store ID.
:param input_s3_uri: The input S3 URI.
:param job_output_s3_uri: The job output S3 URI.
:param kms_key_id: The KMS key ID associated with the output S3 bucket.
:param data_access_role_arn: The data access role ARN.
:return: The import job.
"""
try:
response = self.health_lake_client.start_fhir_import_job(
JobName=job_name,
InputDataConfig={"S3Uri": input_s3_uri},
JobOutputDataConfig={
"S3Configuration": {
"S3Uri": job_output_s3_uri,
"KmsKeyId": kms_key_id,
}
},
DataAccessRoleArn=data_access_role_arn,
DatastoreId=datastore_id,
)
return response
except ClientError as err:
logger.exception(
"Couldn't start import job. Here's why %s",
err.response["Error"]["Message"],
)
raise
- SAP ABAP
-
- SDK para SAP ABAP
-
TRY.
" iv_job_name = 'MyImportJob'
" iv_input_s3_uri = 's3://my-bucket/import/data.ndjson'
" iv_job_output_s3_uri = 's3://my-bucket/import/output/'
" iv_kms_key_id = 'arn:aws:kms:us-east-1:123456789012:key/12345678-1234-1234-1234-123456789012'
" iv_data_access_role_arn = 'arn:aws:iam::123456789012:role/HealthLakeImportRole'
oo_result = lo_hll->startfhirimportjob(
iv_jobname = iv_job_name
io_inputdataconfig = NEW /aws1/cl_hllinputdataconfig( iv_s3uri = iv_input_s3_uri )
io_joboutputdataconfig = NEW /aws1/cl_hlloutputdataconfig(
io_s3configuration = NEW /aws1/cl_hlls3configuration(
iv_s3uri = iv_job_output_s3_uri
iv_kmskeyid = iv_kms_key_id
)
)
iv_dataaccessrolearn = iv_data_access_role_arn
iv_datastoreid = iv_datastore_id
).
DATA(lv_job_id) = oo_result->get_jobid( ).
MESSAGE |Import job started with ID { lv_job_id }.| TYPE 'I'.
CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
DATA(lv_error) = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
MESSAGE lv_error TYPE 'I'.
RAISE EXCEPTION lo_validation_ex.
CATCH /aws1/cx_hllthrottlingex INTO DATA(lo_throttling_ex).
lv_error = |Throttling error: { lo_throttling_ex->av_err_code }-{ lo_throttling_ex->av_err_msg }|.
MESSAGE lv_error TYPE 'I'.
RAISE EXCEPTION lo_throttling_ex.
CATCH /aws1/cx_hllaccessdeniedex INTO DATA(lo_access_ex).
lv_error = |Access denied: { lo_access_ex->av_err_code }-{ lo_access_ex->av_err_msg }|.
MESSAGE lv_error TYPE 'I'.
RAISE EXCEPTION lo_access_ex.
ENDTRY.
Ejemplo de disponibilidad
¿No encuentra lo que necesita? Solicita un ejemplo de código mediante el enlace Enviar comentarios en la barra lateral derecha de esta página.
-
Inicie sesión en la página de almacenes de datos de la HealthLake consola.
-
Elija un almacén de datos.
-
Seleccione Importar.
Se abre la página de importación.
-
En la sección Datos de entrada, introduce la siguiente información:
-
En la sección Importar archivos de salida, introduzca la siguiente información:
-
En la sección Permisos de acceso, elija Usar un rol de servicio de IAM existente y seleccione el rol en el menú del nombre del rol de servicio o elija Crear un rol de IAM.
-
Elija Importar datos.
Durante la importación, seleccione Copiar el ID del trabajo en el banner de la parte superior de la página. Puede utilizar el JobIDpara solicitar la importación de propiedades del trabajo mediante el AWS CLI. Para obtener más información, consulte Conseguir que el FHIR importe propiedades de trabajo.