Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Avvio di un processo di importazione FHIR
Utilizzato StartFHIRImportJob per avviare un processo di importazione FHIR in un archivio HealthLake dati. I seguenti menu forniscono una procedura per Console di gestione AWS e alcuni esempi di codice per and. AWS CLI AWS SDKs Per ulteriori informazioni, consulta StartFHIRImportJob nella documentazione di riferimento dell’API AWS HealthLake .
HealthLake supporta la specifica FHIR R4 per lo scambio di dati sanitari. Se necessario, puoi collaborare con un AWS HealthLake partner per convertire i tuoi dati sanitari in formato FHIR R4 prima dell'importazione.
Come avviare un processo di importazione FHIR
Scegli un menu in base alle tue preferenze di accesso a. AWS HealthLake
- CLI
-
- AWS CLI
-
Come avviare un processo di importazione FHIR
L'start-fhir-import-jobesempio seguente mostra come avviare un processo di importazione FHIR utilizzando AWS HealthLake.
aws healthlake start-fhir-import-job \
--input-data-config S3Uri="s3://(Bucket Name)/(Prefix Name)/" \
--job-output-data-config '{"S3Configuration": {"S3Uri":"s3://(Bucket Name)/(Prefix Name)/","KmsKeyId":"arn:aws:kms:us-east-1:012345678910:key/d330e7fc-b56c-4216-a250-f4c43ef46e83"}}' \
--datastore-id (Data store ID) \
--data-access-role-arn "arn:aws:iam::(AWS Account ID):role/(Role Name)"
Output:
{
"DatastoreId": "(Data store ID)",
"JobStatus": "SUBMITTED",
"JobId": "c145fbb27b192af392f8ce6e7838e34f"
}
Per ulteriori informazioni, consulta Importazione di file in un data store FHIR nella Guida per gli AWS HealthLake sviluppatori.
- Python
-
- SDK per Python (Boto3)
-
@classmethod
def from_client(cls) -> "HealthLakeWrapper":
"""
Creates a HealthLakeWrapper instance with a default AWS HealthLake client.
:return: An instance of HealthLakeWrapper initialized with the default HealthLake client.
"""
health_lake_client = boto3.client("healthlake")
return cls(health_lake_client)
def start_fhir_import_job(
self,
job_name: str,
datastore_id: str,
input_s3_uri: str,
job_output_s3_uri: str,
kms_key_id: str,
data_access_role_arn: str,
) -> dict[str, str]:
"""
Starts a HealthLake import job.
:param job_name: The import job name.
:param datastore_id: The data store ID.
:param input_s3_uri: The input S3 URI.
:param job_output_s3_uri: The job output S3 URI.
:param kms_key_id: The KMS key ID associated with the output S3 bucket.
:param data_access_role_arn: The data access role ARN.
:return: The import job.
"""
try:
response = self.health_lake_client.start_fhir_import_job(
JobName=job_name,
InputDataConfig={"S3Uri": input_s3_uri},
JobOutputDataConfig={
"S3Configuration": {
"S3Uri": job_output_s3_uri,
"KmsKeyId": kms_key_id,
}
},
DataAccessRoleArn=data_access_role_arn,
DatastoreId=datastore_id,
)
return response
except ClientError as err:
logger.exception(
"Couldn't start import job. Here's why %s",
err.response["Error"]["Message"],
)
raise
- SAP ABAP
-
- SDK per SAP ABAP
-
TRY.
" iv_job_name = 'MyImportJob'
" iv_input_s3_uri = 's3://my-bucket/import/data.ndjson'
" iv_job_output_s3_uri = 's3://my-bucket/import/output/'
" iv_kms_key_id = 'arn:aws:kms:us-east-1:123456789012:key/12345678-1234-1234-1234-123456789012'
" iv_data_access_role_arn = 'arn:aws:iam::123456789012:role/HealthLakeImportRole'
oo_result = lo_hll->startfhirimportjob(
iv_jobname = iv_job_name
io_inputdataconfig = NEW /aws1/cl_hllinputdataconfig( iv_s3uri = iv_input_s3_uri )
io_joboutputdataconfig = NEW /aws1/cl_hlloutputdataconfig(
io_s3configuration = NEW /aws1/cl_hlls3configuration(
iv_s3uri = iv_job_output_s3_uri
iv_kmskeyid = iv_kms_key_id
)
)
iv_dataaccessrolearn = iv_data_access_role_arn
iv_datastoreid = iv_datastore_id
).
DATA(lv_job_id) = oo_result->get_jobid( ).
MESSAGE |Import job started with ID { lv_job_id }.| TYPE 'I'.
CATCH /aws1/cx_hllvalidationex INTO DATA(lo_validation_ex).
DATA(lv_error) = |Validation error: { lo_validation_ex->av_err_code }-{ lo_validation_ex->av_err_msg }|.
MESSAGE lv_error TYPE 'I'.
RAISE EXCEPTION lo_validation_ex.
CATCH /aws1/cx_hllthrottlingex INTO DATA(lo_throttling_ex).
lv_error = |Throttling error: { lo_throttling_ex->av_err_code }-{ lo_throttling_ex->av_err_msg }|.
MESSAGE lv_error TYPE 'I'.
RAISE EXCEPTION lo_throttling_ex.
CATCH /aws1/cx_hllaccessdeniedex INTO DATA(lo_access_ex).
lv_error = |Access denied: { lo_access_ex->av_err_code }-{ lo_access_ex->av_err_msg }|.
MESSAGE lv_error TYPE 'I'.
RAISE EXCEPTION lo_access_ex.
ENDTRY.
Non riesci a trovare quello che ti serve? Richiedi un esempio di codice utilizzando il link Fornisci feedback nella barra laterale destra di questa pagina.
-
Accedi alla pagina degli archivi dati sulla HealthLake console.
-
Scegli un data store.
-
Scegli Importa.
Viene visualizzata la pagina Importa.
-
Nella sezione Dati di input, inserisci le seguenti informazioni:
-
Nella sezione Importa file di output, inserisci le seguenti informazioni:
-
Nella sezione Autorizzazioni di accesso, scegli Usa un ruolo di servizio IAM esistente e seleziona il ruolo dal menu Service role name oppure scegli Crea un ruolo IAM.
-
Scegli Import data (Importa dati).
Durante l'importazione, scegli Copia l'ID del lavoro sul banner nella parte superiore della pagina. È possibile utilizzare il JobIDper richiedere le proprietà del lavoro di importazione utilizzando AWS CLI. Per ulteriori informazioni, consulta Ottenere proprietà lavorative importate da FHIR.