

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Approcci generativi di intelligenza artificiale e PNL per l'assistenza sanitaria e le scienze della vita
<a name="hcls-options"></a>

L'elaborazione del linguaggio naturale (NLP) è una tecnologia di apprendimento automatico che offre ai computer la capacità di interpretare, manipolare e comprendere il linguaggio umano. Le organizzazioni sanitarie e delle scienze della vita dispongono di grandi volumi di dati provenienti dalle cartelle cliniche dei pazienti. Possono utilizzare il software NLP per elaborare automaticamente questi dati. Ad esempio, possono combinare la PNL con l'intelligenza artificiale generativa per semplificare la codifica medica, estrarre informazioni sui pazienti e riepilogare i record.

A seconda dell'attività di PNL che si desidera eseguire, diverse architetture potrebbero essere più adatte al caso d'uso. Questa guida affronta le seguenti opzioni generative di intelligenza artificiale e PNL per applicazioni nel settore sanitario e delle scienze della vita su: AWS
+ [Utilizzo di Amazon Comprehend Medical](comprehend-medical.md)— Scopri come usare Amazon Comprehend Medical in modo indipendente, senza integrarlo con un modello di linguaggio di grandi dimensioni (LLM).
+ [Combinazione di Amazon Comprehend Medical con modelli linguistici di grandi dimensioni](comprehend-medical-rag.md)— Scopri come combinare Amazon Comprehend Medical con un LLM in un'architettura Retrieval Augment Generation (RAG).
+ [Utilizzo di modelli linguistici di grandi dimensioni per casi d'uso nel settore sanitario e delle scienze della vita](llms.md)— Scopri come utilizzare un LLM per applicazioni sanitarie e biologiche, utilizzando un LLM ottimizzato o un'architettura RAG.

# Utilizzo di Amazon Comprehend Medical
<a name="comprehend-medical"></a>

[Amazon Comprehend](https://docs.aws.amazon.com/comprehend-medical/latest/dev/comprehendmedical-welcome.html) Medical rileva e restituisce informazioni utili in testo clinico non strutturato come note mediche, riepiloghi delle dimissioni, risultati dei test e note sui casi. Servizio AWS Utilizza modelli di elaborazione del linguaggio naturale (NLP) per rilevare le entità. Le *entità* sono riferimenti testuali a informazioni mediche, come condizioni mediche, farmaci o informazioni sanitarie protette (PHI).

**Importante**  
Amazon Comprehend Medical non sostituisce consulenze, diagnosi o trattamenti medici professionali. Amazon Comprehend Medical fornisce punteggi di affidabilità che indicano il livello di fiducia nell'accuratezza delle entità rilevate. Identificare la soglia di confidenza giusta per il caso d'uso e utilizzare soglie di confidenza elevata in situazioni che richiedono un'elevata precisione. In alcuni casi d'uso, i risultati devono essere esaminati e verificati da revisori umani adeguatamente formati. Ad esempio, Amazon Comprehend Medical deve essere usato in scenari di assistenza ai pazienti solo dopo aver verificato l'accuratezza e l'attendibilità del giudizio medico da parte di professionisti medici qualificati.

Puoi accedere ad Amazon Comprehend Medical tramite, Console di gestione AWS AWS Command Line Interface il AWS CLI() o tramite AWS SDKs. AWS SDKs Sono disponibili per vari linguaggi e piattaforme di programmazione, come Java, Python, Ruby, .NET, iOS e Android. Puoi utilizzarlo per accedere in modo programmatico SDKs ad Amazon Comprehend Medical dalla tua applicazione client.

Questa sezione esamina le funzionalità principali di Amazon Comprehend Medical. Descrive inoltre i vantaggi dell'utilizzo di questo servizio rispetto a un modello linguistico di grandi dimensioni (LLM).

## Funzionalità di Amazon Comprehend Medical
<a name="comprehend-medical-capabilities"></a>

Amazon Comprehend Medical APIs offre inferenze quasi in tempo reale e in batch. Questi APIs possono assimilare testo medico e fornire risultati per le attività di PNL in ambito medico utilizzando il riconoscimento delle entità mediche e l'identificazione delle relazioni tra le entità. Puoi eseguire analisi su singoli file o in batch su più file archiviati in un bucket Amazon Simple Storage Service (Amazon S3). Amazon Comprehend Medical offre le seguenti operazioni API di analisi del testo per il rilevamento sincrono di entità:
+ [Rileva entità](https://docs.aws.amazon.com/comprehend-medical/latest/dev/textanalysis-entitiesv2.html): rileva categorie mediche generali come anatomia, condizione medica, categoria PHI, procedure ed espressioni temporali.
+ [Rileva PHI](https://docs.aws.amazon.com/comprehend-medical/latest/dev/textanalysis-phi.html): rileva entità specifiche come età, data, nome e informazioni personali simili.

Amazon Comprehend Medical include anche diverse operazioni API che puoi utilizzare per eseguire analisi di testo in batch su documenti clinici. Per ulteriori informazioni su come utilizzare queste operazioni API, consulta [Text analysis batch APIs](https://docs.aws.amazon.com/comprehend-medical/latest/dev/textanalysis-batchapi.html).

Usa Amazon Comprehend Medical per rilevare entità nel testo clinico e collegarle a concetti di ontologie mediche standardizzate, tra cui RxNorm le knowledge base ICD-10-CM e SNOMED CT. Puoi eseguire analisi sia su singoli file che come analisi in batch su documenti di grandi dimensioni o più file archiviati in un bucket Amazon S3. Amazon Comprehend Medical offre le seguenti operazioni di collegamento ontologico delle API:
+ [Infer ICD10 CM](https://docs.aws.amazon.com/comprehend-medical/latest/dev/ontology-icd10.html) — L'operazione **Infer ICD10 CM** rileva potenziali condizioni mediche e le collega ai codici della versione 2019 della classificazione internazionale delle malattie, decima revisione, modifica clinica (ICD-10-CM). Per ogni potenziale condizione medica rilevata, Amazon Comprehend Medical elenca i codici e le descrizioni ICD-10-CM corrispondenti. Le condizioni mediche elencate nei risultati includono un punteggio di confidenza, che indica la fiducia di Amazon Comprehend Medical nell'accuratezza delle entità rispetto ai concetti corrispondenti nei risultati.
+ [InferRxNorm](https://docs.aws.amazon.com/comprehend-medical/latest/dev/ontology-RxNorm.html)— L'**InferRxNorm**operazione identifica i farmaci elencati nella cartella clinica di un paziente come entità. Collega le entità agli identificatori concettuali (RxCUI) presenti RxNorm nel database della National Library of Medicine. Ogni RxCUI è unico per diversi dosaggi e dosaggi. I farmaci elencati nei risultati includono un punteggio di confidenza, che indica la fiducia di Amazon Comprehend Medical nell'accuratezza delle entità corrispondenti ai concetti RxNorm della knowledge base. Amazon Comprehend Medical elenca i migliori CUIs Rx potenzialmente corrispondenti per ogni farmaco rilevato in ordine decrescente in base al punteggio di confidenza.
+ [InfersnomeDCT](https://docs.aws.amazon.com/comprehend-medical/latest/dev/ontology-linking-snomed.html) — L'operazione **InfersnomeDCT** identifica i possibili concetti medici come entità e li collega ai codici della versione 2021-03 della nomenclatura sistematica della medicina, termini clinici (SNOMED CT). SNOMED CT fornisce un vocabolario completo di concetti medici, tra cui condizioni mediche e anatomia, nonché test, trattamenti e procedure mediche. Per ogni concept ID corrispondente, Amazon Comprehend Medical restituisce i cinque concetti medici principali, ciascuno con un punteggio di confidenza e informazioni contestuali come tratti e attributi. Il concetto SNOMED CT IDs può quindi essere utilizzato per strutturare i dati clinici dei pazienti per la codifica, la reportistica o l'analisi clinica se utilizzato con la poligerarchia SNOMED CT.

Per ulteriori informazioni, consulta [Analisi del testo APIs](https://docs.aws.amazon.com/comprehend-medical/latest/dev/comprehendmedical-textanalysis.html) e [collegamento ontologico APIs](https://docs.aws.amazon.com/comprehend-medical/latest/dev/comprehendmedical-ontologies.html) nella documentazione di Amazon Comprehend Medical.

## Casi d'uso per Amazon Comprehend Medical
<a name="comprehend-medical-use-cases"></a>

Come servizio autonomo, Amazon Comprehend Medical potrebbe risolvere i casi d'uso della tua organizzazione. Amazon Comprehend Medical può eseguire attività come le seguenti:
+ Assistenza nella codifica medica nelle cartelle cliniche dei pazienti
+ Rileva i dati delle informazioni sanitarie protette (PHI)
+ Convalida dei farmaci, inclusi attributi quali dosaggio, frequenza e forma

I risultati di Amazon Comprehend Medical sono comprensibili per la maggior parte degli studi medici. Tuttavia, potresti dover prendere in considerazione delle alternative se hai limitazioni come le seguenti:
+ **Definizioni di entità diverse**: ad esempio, la tua definizione `FREQUENCY` di entità medicinale potrebbe essere diversa. Per *quanto riguarda la frequenza, Amazon Comprehend Medical prevede in* base alle necessità, ma la tua organizzazione potrebbe utilizzare il *termine pro re nata (*PRN).
+ **Enorme quantità di risultati**: ad esempio, le note dei pazienti contengono spesso più sintomi e parole chiave che corrispondono a più codici ICD-10-CM. Tuttavia, molte delle parole chiave non sono applicabili alla diagnosi. In questo caso, il fornitore deve valutare numerose entità ICD-10-CM e i relativi punteggi di affidabilità, il che richiede tempi di elaborazione manuali.
+ **Entità personalizzate o attività di NLP***: ad esempio, i fornitori potrebbero voler estrarre prove PRN, ad esempio prenderle quando necessario in caso di difficoltà.* Poiché non è disponibile tramite Amazon Comprehend Medical, è garantito un modello AI/ML diverso. È necessaria una AI/ML soluzione diversa se l'attività di PNL non rientra nel campo del riconoscimento delle entità, ad esempio se si tratta di riepilogo, risposta a domande e analisi del sentiment.

# Combinazione di Amazon Comprehend Medical con modelli linguistici di grandi dimensioni
<a name="comprehend-medical-rag"></a>

[Uno studio del 2024 condotto da NEJM AI](https://ai.nejm.org/doi/pdf/10.1056/AIdbp2300040) ha dimostrato che l'utilizzo di un LLM, con prompt zero-shot, per attività di codifica medica generalmente porta a prestazioni scadenti. L'uso di Amazon Comprehend Medical con un LLM può aiutare a mitigare questi problemi di prestazioni. I risultati di Amazon Comprehend Medical sono un contesto utile per un LLM che esegue attività di PNL. Ad esempio, fornire un contesto da Amazon Comprehend Medical al modello linguistico di grandi dimensioni può aiutarti a:
+ Migliora l'accuratezza delle selezioni delle entità utilizzando i risultati iniziali di Amazon Comprehend Medical come contesto per il LLM
+ Implementa il riconoscimento personalizzato delle entità, il riepilogo, la risposta alle domande e altri casi d'uso

Questa sezione descrive come combinare Amazon Comprehend Medical con un LLM utilizzando un approccio Retrieval Augmented Generation (RAG). *Retrieval Augmented Generation (RAG)* è una tecnologia di intelligenza artificiale generativa in cui un LLM fa riferimento a una fonte di dati autorevole esterna alle sue fonti di dati di addestramento prima di generare una risposta. [Per ulteriori informazioni, consulta Cos'è il RAG.](https://aws.amazon.com/what-is/retrieval-augmented-generation/)

Per illustrare questo approccio, questa sezione utilizza l'esempio di codifica medica (diagnostica) relativa all'ICD-10-CM. Include un'architettura di esempio e modelli di progettazione rapidi per accelerare l'innovazione. Include inoltre le migliori pratiche per l'utilizzo di Amazon Comprehend Medical all'interno di un flusso di lavoro RAG.

## Architettura basata su RAG con Amazon Comprehend Medical
<a name="comprehend-medical-rag-architecture"></a>

Il diagramma seguente illustra un approccio RAG per identificare i codici di diagnosi ICD-10-CM dalle note dei pazienti. Utilizza Amazon Comprehend Medical come fonte di conoscenza. In un approccio RAG, il metodo di recupero recupera in genere informazioni da un database vettoriale contenente le conoscenze applicabili. Invece di un database vettoriale, questa architettura utilizza Amazon Comprehend Medical per l'attività di recupero. L'orchestratore invia le informazioni sulla nota del paziente ad Amazon Comprehend Medical e recupera le informazioni sul codice ICD-10-CM. L'orchestratore invia questo contesto al downstream Foundation Model (LLM), tramite Amazon Bedrock. L'LLM genera una risposta utilizzando le informazioni sul codice ICD-10-CM e tale risposta viene rispedita all'applicazione client.

![\[Un flusso di lavoro RAG che utilizza Amazon Comprehend Medical come fonte di conoscenza.\]](http://docs.aws.amazon.com/it_it/prescriptive-guidance/latest/generative-ai-nlp-healthcare/images/architecture-comprehend-medical-rag-workflow.png)


Il diagramma mostra il seguente flusso di lavoro RAG:

1. L'applicazione client invia le note del paziente come interrogazione all'orchestratore. Un esempio di queste annotazioni sul paziente potrebbe essere «La paziente è una paziente di 71 anni del Dr. X. La paziente si è presentata al pronto soccorso ieri sera con una storia di dolore addominale di circa 7-8 giorni, che è stata persistente. Non ha avuto febbri o brividi precisi e nessuna storia di ittero. Il paziente nega qualsiasi significativa perdita di peso recente».

1. L'orchestratore utilizza Amazon Comprehend Medical per recuperare i codici ICD-10-CM relativi alle informazioni mediche contenute nella query. Utilizza l'API Infer CM per estrarre e **dedurre i codici ICD10 ICD-10-CM** dalle note del paziente.

1. L'orchestratore crea un prompt che include il modello di prompt, la query originale e i codici ICD-10-CM recuperati da Amazon Comprehend Medical. Invia questo contesto avanzato ad Amazon Bedrock.

1. Amazon Bedrock elabora l'input e utilizza un modello di base per generare una risposta che include i codici ICD-10-CM e le prove corrispondenti ricavate dalla query. La risposta generata include i codici ICD-10-CM identificati e le evidenze tratte dalle note del paziente a supporto di ciascun codice. Di seguito è riportata una risposta di esempio:

   ```
   <response>
   <icd10>
   <code>R10.9</code>
   <evidence>history of abdominal pain</evidence>
   </icd10>
   <icd10>
   <code>R10.30</code>
   <evidence>history of abdominal pain</evidence>
   </icd10>
   </response>
   ```

1. Amazon Bedrock invia la risposta generata all'orchestratore.

1. L'orchestratore invia la risposta all'applicazione client, dove l'utente può esaminarla.

## Casi d'uso per l'utilizzo di Amazon Comprehend Medical in un flusso di lavoro RAG
<a name="comprehend-medical-rag-use-cases"></a>

Amazon Comprehend Medical può eseguire attività di PNL specifiche. Per ulteriori informazioni, consulta [Casi d'uso per Amazon Comprehend Medical](comprehend-medical.md#comprehend-medical-use-cases).

Potresti voler integrare Amazon Comprehend Medical in un flusso di lavoro RAG per casi d'uso avanzati, come i seguenti:
+ Genera riepiloghi clinici dettagliati combinando entità mediche estratte con informazioni contestuali provenienti dalle cartelle cliniche dei pazienti
+ Automatizza la codifica medica per casi complessi utilizzando entità estratte con informazioni collegate all'ontologia per l'assegnazione del codice
+ Automatizza la creazione di note cliniche strutturate a partire da testo non strutturato utilizzando entità mediche estratte
+ Analizza gli effetti collaterali dei farmaci in base ai nomi e agli attributi dei farmaci estratti
+ Sviluppa sistemi di supporto clinico intelligenti che combinano le informazioni mediche estratte con la up-to-date ricerca e le linee guida

## Le migliori pratiche per l'utilizzo di Amazon Comprehend Medical in un flusso di lavoro RAG
<a name="comprehend-medical-rag-best-practices"></a>

Quando si integrano i risultati di Amazon Comprehend Medical in una richiesta di LLM, è essenziale seguire le best practice. Ciò può migliorare le prestazioni e la precisione. Di seguito sono riportate le raccomandazioni principali:
+ **Comprendi i punteggi di confidenza di Amazon Comprehend Medical**: Amazon Comprehend Medical fornisce punteggi di affidabilità per ogni entità e collegamento ontologico rilevati. È fondamentale comprendere il significato di questi punteggi e stabilire soglie appropriate per il caso d'uso specifico. I punteggi di confidenza aiutano a filtrare le entità con scarsa fiducia, riducendo il rumore e migliorando la qualità degli input del LLM.
+ **Usa i punteggi di confidenza nella progettazione tempestiva**: quando crei istruzioni per il LLM, prendi in considerazione l'idea di incorporare i punteggi di confidenza di Amazon Comprehend Medical come contesto aggiuntivo. Questo aiuta l'LLM a stabilire le priorità o a valutare le entità in base ai loro livelli di fiducia, migliorando potenzialmente la qualità dell'output.
+ **Valuta i risultati di Amazon Comprehend Medical con dati fondati***: i dati Ground Truth* sono informazioni di cui si sa che sono vere. Possono essere usati per verificare che un' AI/ML applicazione stia producendo risultati accurati. Prima di integrare i risultati di Amazon Comprehend Medical nel tuo flusso di lavoro LLM, valuta le prestazioni del servizio su un campione rappresentativo dei tuoi dati. Confronta i risultati con annotazioni di base per identificare potenziali discrepanze o aree di miglioramento. Questa valutazione ti aiuta a comprendere i punti di forza e i limiti di Amazon Comprehend Medical per il tuo caso d'uso.
+ **Seleziona strategicamente le informazioni pertinenti**: Amazon Comprehend Medical può fornire una grande quantità di informazioni, ma non tutte possono essere pertinenti alla tua attività. Seleziona attentamente le entità, gli attributi e i metadati più pertinenti al tuo caso d'uso. Fornire troppe informazioni irrilevanti all'LLM può causare rumore e potenzialmente ridurre le prestazioni.
+ **Allinea le definizioni delle entità**: assicurati che le definizioni di entità e attributi utilizzate da Amazon Comprehend Medical siano in linea con la tua interpretazione. In caso di discrepanze, valuta la possibilità di fornire un contesto o un chiarimento aggiuntivi al LLM per colmare il divario tra i risultati di Amazon Comprehend Medical e i tuoi requisiti. Se l'entità Amazon Comprehend Medical non soddisfa le tue aspettative, puoi implementare il rilevamento personalizzato delle entità includendo istruzioni aggiuntive (e possibili esempi) all'interno del prompt.
+ **Fornisci conoscenze specifiche del dominio**: sebbene Amazon Comprehend Medical fornisca preziose informazioni mediche, potrebbe non cogliere tutte le sfumature del tuo dominio specifico. Prendi in considerazione la possibilità di integrare i risultati di Amazon Comprehend Medical con ulteriori fonti di conoscenza specifiche del dominio, come ontologie, terminologie o set di dati curati da esperti. Ciò fornisce un contesto più completo al LLM.
+ **Rispettare le linee guida etiche e normative**: quando si tratta di dati medici, è importante attenersi ai principi etici e alle linee guida normative, come quelli relativi alla privacy dei dati, alla sicurezza e all'uso responsabile dei sistemi di intelligenza artificiale nell'assistenza sanitaria. Assicurati che la tua implementazione sia conforme alle leggi pertinenti e alle migliori pratiche del settore.

Seguendo queste best practice, AI/ML i professionisti possono utilizzare efficacemente i punti di forza di Amazon Comprehend Medical e. LLMs Per le attività mediche di PNL, queste best practice aiutano a mitigare i potenziali rischi e possono migliorare le prestazioni.

## Progettazione tempestiva per il contesto di Amazon Comprehend Medical
<a name="comprehend-medical-rag-prompt-engineering"></a>

La [progettazione tempestiva](https://aws.amazon.com/what-is/prompt-engineering/) è il processo di progettazione e perfezionamento dei prompt per guidare una soluzione di intelligenza artificiale generativa a generare gli output desiderati. Scegli i formati, le frasi, le parole e i simboli più appropriati che guidano l'IA a interagire con i tuoi utenti in modo più significativo.

A seconda dell'operazione API eseguita, Amazon Comprehend Medical restituisce le entità rilevate, i codici e le descrizioni ontologiche e i punteggi di confidenza. Questi risultati diventano contestuali all'interno del prompt quando la soluzione richiama il LLM di destinazione. È necessario progettare il prompt per presentare il contesto all'interno del modello di prompt.

**Nota**  
[I prompt di esempio in questa sezione seguono le indicazioni di Anthropic.](https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/overview) Se utilizzi un provider LLM diverso, segui i consigli di quel fornitore.

In generale, inserisci sia il testo medico originale che i risultati di Amazon Comprehend Medical nel prompt. Di seguito è riportata una struttura di prompt comune:

```
<medical_text>
medical text
</medical_text>

<comprehend_medical_text_results>
comprehend medical text results
</comprehend_medical_text_results>

<prompt_instructions>
prompt instructions
</prompt_instructions>
```

Questa sezione fornisce strategie per includere i risultati di Amazon Comprehend Medical come contesto immediato per le seguenti attività mediche comuni di PNL:
+ [Filtra i risultati di Amazon Comprehend Medical](#prompt-engineering-filter-results)
+ [Estendi le attività di PNL in ambito medico con Amazon Comprehend Medical](#prompt-engineering-extend-nlp)
+ [Applica i guardrail con Amazon Comprehend Medical](#prompt-engineering-guardrails)

### Filtra i risultati di Amazon Comprehend Medical
<a name="prompt-engineering-filter-results"></a>

Amazon Comprehend Medical fornisce in genere una grande quantità di informazioni. Potresti voler ridurre il numero di risultati che il medico deve esaminare. In questo caso, puoi utilizzare un LLM per filtrare questi risultati. Le entità Amazon Comprehend Medical includono un punteggio di confidenza che puoi utilizzare come meccanismo di filtro durante la progettazione del prompt.

Di seguito è riportato un esempio di nota per un paziente:

```
Carlie had a seizure 2 weeks ago. She is complaining of frequent headaches
Nausea is also present. She also complains of eye trouble with blurry vision
Meds : Topamax 50 mgs at breakfast daily,
Send referral order to neurologist
Follow-up as scheduled
```

In questa nota per il paziente, Amazon Comprehend Medical rileva le seguenti entità.

![\[Rilevamento di entità in Amazon Comprehend Medical.\]](http://docs.aws.amazon.com/it_it/prescriptive-guidance/latest/generative-ai-nlp-healthcare/images/comprehend-medical-entity-detection.png)


Le entità si collegano ai seguenti codici ICD-10-CM per convulsioni e mal di testa.


| 
| 
| Categoria | Codice ICD-10-CM | Descrizione ICD-10-CM | Punteggio di attendibilità | 
| --- |--- |--- |--- |
| Convulsioni | R56.9 | Convulsioni non specificate | 0,8348 | 
| Sequestro | G40.909 | Epilessia, non specificata, non intrattabile, senza stato epilettico | 0,5424 | 
| Convulsioni | R56,00 | Semplici convulsioni febbrili | 0,4937 | 
| Convulsioni | G40.09 | Altre crisi epilettiche | 0,4397 | 
| Convulsioni | G40.409 | Altre epilessia e sindromi epilettiche generalizzate, non intrattabili, senza stato epilettico | 0,4138 | 
| Mal di testa | R51 | mal di testa | 0,4067 | 
| Mal di testa | R51,9 | Cefalea, non specificata | 0,3844 | 
| Mal di testa | G44,52 | Nuova cefalea persistente quotidiana (NDPH) | 0,3005 | 
| Mal di testa | G 44 | Altra sindrome di cefalea | 0,2670 | 
| Mal di testa | 4.8 | Altre sindromi cefalee specificate | 0,2542 | 

È possibile inserire i codici ICD-10-CM nel prompt per aumentare la precisione LLM. Per ridurre il rumore, puoi filtrare i codici ICD-10-CM utilizzando il punteggio di confidenza incluso nei risultati di Amazon Comprehend Medical. Di seguito è riportato un esempio di prompt che include solo i codici ICD-10-CM con un punteggio di affidabilità superiore a 0,4:

```
<patient_note>
Carlie had a seizure 2 weeks ago. She is complaining of frequent headaches
Nausea is also present. She also complains of eye trouble with blurry vision
Meds : Topamax 50 mgs at breakfast daily,
Send referral order to neurologist
Follow-up as scheduled
</patient_note>

<comprehend_medical_results>
<icd-10>
  <entity>
    <text>seizure</text>
    <code>
      <description>Unspecified convulsions</description>
      <code_value>R56.9</code_value>
      <score>0.8347607851028442</score>
    </code>
    <code>
      <description>Epilepsy, unspecified, not intractable, without status epilepticus</description>
      <code_value>G40.909</code_value>
      <score>0.542376697063446</score>
    </code>
    <code>
      <description>Other seizures</description>
      <code_value>G40.89</code_value>
      <score>0.43966275453567505</score>
    </code>
    <code>
      <description>Other generalized epilepsy and epileptic syndromes, not intractable, without status epilepticus</description>
      <code_value>G40.409</code_value>
      <score>0.41382506489753723</score>
    </code>
  </entity>
  <entity>
    <text>headaches</text>
    <code>
      <description>Headache</description>
      <code_value>R51</code_value>
      <score>0.4066613018512726</score>
    </code>
  </entity>
  <entity>
    <text>Nausea</text>
    <code>
      <description>Nausea</description>
      <code_value>R11.0</code_value>
      <score>0.6460834741592407</score>
    </code>
  </entity>
  <entity>
    <text>eye trouble</text>
    <code>
      <description>Unspecified disorder of eye and adnexa</description>
      <code_value>H57.9</code_value>
      <score>0.6780954599380493</score>
    </code>
    <code>
      <description>Unspecified visual disturbance</description>
      <code_value>H53.9</code_value>
      <score>0.5871203541755676</score>
    </code>
    <code>
      <description>Unspecified disorder of binocular vision</description>
      <code_value>H53.30</code_value>
      <score>0.5539672374725342</score>
    </code>
  </entity>
  <entity>
    <text>blurry vision</text>
    <code>
      <description>Other visual disturbances</description>
      <code_value>H53.8</code_value>
      <score>0.9001834392547607</score>
    </code>
  </entity>
</icd-10>
</comprehend_medical_results>

<prompt>
Given the patient note and Amazon Comprehend Medical ICD-10-CM code results above, please select the most relevant ICD-10-CM diagnosis codes for the patient. 
For each selected code, provide a brief explanation of why it is relevant based on the information in the patient note.
</prompt>
```

### Estendi le attività di PNL in ambito medico con Amazon Comprehend Medical
<a name="prompt-engineering-extend-nlp"></a>

Durante l'elaborazione di testi medici, il contesto di Amazon Comprehend Medical può aiutare l'LLM a selezionare token migliori. In questo esempio, vuoi abbinare i sintomi della diagnosi ai farmaci. È inoltre necessario trovare del testo che si riferisca agli esami medici, ad esempio termini che si riferiscono a un esame del sangue. Puoi usare Amazon Comprehend Medical per rilevare le entità e i nomi dei farmaci. In questo caso, utilizzerai la versione [DetectEntitiesV2](https://docs.aws.amazon.com/comprehend-medical/latest/dev/textanalysis-entitiesv2.html) e [InferRxNorm](https://docs.aws.amazon.com/comprehend-medical/latest/dev/ontology-RxNorm.html) APIs per Amazon Comprehend Medical.

Di seguito è riportato un esempio di nota per un paziente:

```
Carlie had a seizure 2 weeks ago. She is complaining of increased frequent headaches
Given lyme disease symptoms such as muscle ache and stiff neck will order prescription.
Meds : Topamax 50 mgs at breakfast daily. Amoxicillan 25 mg by mouth twice a day
Place MRI radiology order at RadNet
```

Per concentrarsi sul codice di diagnosi, nel prompt `DX_NAME` vengono utilizzate solo `MEDICAL_CONDITION` le entità correlate al tipo. Gli altri metadati sono esclusi per irrilevanza. Per le entità farmaceutiche, è incluso il nome del farmaco insieme agli attributi estratti. Altri metadati relativi alle entità farmaceutiche di Amazon Comprehend Medical sono esclusi per irrilevanza. Di seguito è riportato un prompt di esempio che utilizza risultati filtrati di Amazon Comprehend Medical. Il prompt si concentra sulle `MEDICAL_CONDITION` entità che hanno il tipo. `DX_NAME` Questo prompt è progettato per collegare in modo più preciso i codici di diagnosi con i farmaci ed estrarre con maggiore precisione i test medici:

```
<patient_note>
Carlie had a seizure 2 weeks ago. She is complaining of increased freqeunt headaches
Given lyme disease symptoms such as muscle ache and stiff neck will order prescription. 
Meds : Topamax 50 mgs at breakfast daily. Amoxicillan 25 mg by mouth twice a day
Place MRI radiology order at RadNet
</patient_note>

<detect_entity_results>
<entity>
    <text>seizure</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
<entity>
    <text>headaches</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
<entity>
    <text>lyme disease</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
<entity>
    <text>muscle ache</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
<entity>
    <text>stiff neck</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
</detect_entity_results>

<rx_results>
<entity>
    <text>Topamax</text>
    <category>MEDICATION</category>
    <type>BRAND_NAME</type>
    <attributes>
        <attribute>
            <type>FREQUENCY</type>
            <text>at breakfast daily</text>
        </attribute>
        <attribute>
            <type>DOSAGE</type>
            <text>50 mgs</text>
        </attribute>
        <attribute>
            <type>ROUTE_OR_MODE</type>
            <text>by mouth</text>
        </attribute>
    </attributes>
</entity>
<entity>
    <text>Amoxicillan</text>
    <category>MEDICATION</category>
    <type>GENERIC_NAME</type>
    <attributes>
        <attribute>
            <type>ROUTE_OR_MODE</type>
            <text>by mouth</text>
        </attribute>
        <attribute>
            <type>DOSAGE</type>
            <text>25 mg</text>
        </attribute>
        <attribute>
            <type>FREQUENCY</type>
            <text>twice a day</text>
        </attribute>
    </attributes>
</entity>
</rx_results>

<prompt>
Based on the patient note and the detected entities, can you please:
1. Link the diagnosis symptoms with the medications prescribed. 
Provide your reasoning for the linkages.
2. Extract any entities related to medical order tests mentioned in the note.
</prompt>
```

### Applica i guardrail con Amazon Comprehend Medical
<a name="prompt-engineering-guardrails"></a>

Puoi utilizzare un LLM e Amazon Comprehend Medical per creare guardrail prima che venga utilizzata la risposta generata. Puoi eseguire questo flusso di lavoro su testo medico non modificato o post-elaborato. I casi d'uso includono la gestione di informazioni sanitarie protette (PHI), il rilevamento di allucinazioni o l'implementazione di politiche personalizzate per la pubblicazione dei risultati. Ad esempio, puoi utilizzare il contesto di Amazon Comprehend Medical per identificare i dati PHI e quindi utilizzare l'LLM per rimuovere tali dati PHI.

Di seguito è riportato un esempio di informazioni tratte dalla cartella clinica di un paziente che include PHI:

```
Patient name: John Doe
Patient SSN: 123-34-5678
Patient DOB: 01/01/2024
Patient address: 123 Main St, Anytown USA
Exam details: good health. Pulse is 60 bpm. needs to work on diet with BMI of 190
```

Di seguito è riportato un esempio di prompt che include i risultati di Amazon Comprehend Medical come contesto:

```
<original_text>
Patient name: John Doe
Patient SSN: 123-34-5678 Patient DOB: 01/01/2024
Patient address: 123 Main St, Anytown USA
Exam details: good health. Pulse is 60 bpm. needs to work on diet with BMI of 190
</original_text>

<comprehend_medical_phi_entities>
<entity>
  <text>John Doe</text>
  <category>PROTECTED_HEALTH_INFORMATION</category>
  <score>0.9967944025993347</score>
  <type>NAME</type>
</entity>
<entity>
  <text>123-34-5678</text>
  <category>PROTECTED_HEALTH_INFORMATION</category>
  <score>0.9998034834861755</score>
  <type>ID</type>
</entity>
<entity>
  <text>01/01/2000</text>
  <category>PROTECTED_HEALTH_INFORMATION</category>
  <score>0.9964448809623718</score>
  <type>DATE</type>
</entity>
</comprehend_medical_phi_entities>

<instructions>
Using the provided original text and the Amazon Comprehend Medical PHI entities detected, please analyze the text to determine if it contains any additional protected health information (PHI) beyond the entities already identified. If additional PHI is found, please list and categorize it. If no additional PHI is found, please state that explicitly.
In addition if PHI is found, generate updated text with the PHI removed. 
</instructions>
```

# Utilizzo di modelli linguistici di grandi dimensioni per casi d'uso nel settore sanitario e delle scienze della vita
<a name="llms"></a>

Questo descrive come utilizzare modelli linguistici di grandi dimensioni (LLMs) per applicazioni nel settore sanitario e delle scienze biologiche. Alcuni casi d'uso richiedono l'uso di un modello linguistico di grandi dimensioni per le funzionalità di intelligenza artificiale generativa. Esistono vantaggi e limiti anche per la maggior parte delle persone state-of-the-art LLMs, e i consigli contenuti in questa sezione sono progettati per aiutarti a raggiungere i risultati prefissati.

È possibile utilizzare il percorso decisionale per determinare la soluzione LLM appropriata per il proprio caso d'uso, considerando fattori quali la conoscenza del dominio e i dati di formazione disponibili. Inoltre, questa sezione illustra le più diffuse pratiche mediche preaddestrate LLMs e le migliori pratiche per la loro selezione e utilizzo. Descrive inoltre i compromessi tra soluzioni complesse e ad alte prestazioni e approcci più semplici e a basso costo.

## Casi d'uso per un LLM
<a name="llm-use-cases"></a>

Amazon Comprehend Medical può eseguire attività di PNL specifiche. Per ulteriori informazioni, consulta [Casi d'uso per Amazon Comprehend Medical](comprehend-medical.md#comprehend-medical-use-cases).

Le funzionalità di intelligenza artificiale logiche e generative di un LLM potrebbero essere necessarie per i casi d'uso avanzati nel settore sanitario e delle scienze della vita, come i seguenti:
+ Classificazione di entità mediche personalizzate o categorie di testo
+ Rispondere a domande cliniche
+ Riepilogo dei referti medici
+ Generazione e rilevamento di informazioni dettagliate a partire da informazioni mediche

## Approcci di personalizzazione
<a name="llm-customization"></a>

È fondamentale capire come LLMs vengono implementati. LLMs vengono comunemente addestrati con miliardi di parametri, inclusi i dati di addestramento provenienti da molti domini. Questa formazione consente all'LLM di affrontare le attività più generalizzate. Tuttavia, spesso sorgono sfide quando sono richieste conoscenze specifiche del dominio. Esempi di conoscenze settoriali nel settore sanitario e delle scienze della vita sono i codici clinici, la terminologia medica e le informazioni sanitarie necessarie per generare risposte accurate. Pertanto, l'utilizzo dell'LLM così com'è (senza richiedere informazioni aggiuntive senza ulteriori conoscenze di dominio) per questi casi d'uso probabilmente produce risultati imprecisi. Esistono diversi approcci popolari che è possibile utilizzare per superare questa sfida: progettazione tempestiva, Retrieval Augmented Generation (RAG) e messa a punto.

### Progettazione di prompt
<a name="llm-customization-prompt-engineering"></a>

La *progettazione tempestiva* è il processo in cui si guidano le soluzioni di intelligenza artificiale generativa per creare gli output desiderati adattando gli input al LLM. Elaborando istruzioni precise con un contesto pertinente, è possibile guidare il modello verso il completamento di attività sanitarie specialistiche che richiedono un ragionamento. Un'efficace progettazione tempestiva può migliorare in modo significativo le prestazioni del modello per i casi d'uso sanitario senza richiedere modifiche al modello. Per ulteriori informazioni sulla progettazione dei prompt, consulta [Implementazione della progettazione avanzata dei prompt con Amazon Bedrock](https://aws.amazon.com/blogs/machine-learning/implementing-advanced-prompt-engineering-with-amazon-bedrock/) (AWS post di blog). Il prompt e il prompt di Few-shot sono tecniche che chain-of-thought puoi utilizzare nella progettazione dei prompt.

#### Prompt few-shot
<a name="few-shot-prompting"></a>

Il Few-shot prompting è una tecnica in cui si fornisce al LLM alcuni esempi dell'input-output desiderato prima di chiedergli di eseguire un'attività simile. Nei contesti sanitari, questo approccio è particolarmente utile per attività specialistiche, come il riconoscimento di entità mediche o la sintesi di note cliniche. Includendo da 3 a 5 esempi di alta qualità nel prompt, è possibile migliorare in modo significativo la comprensione da parte del modello della terminologia medica e dei modelli specifici del dominio. Per un esempio di few-shot prompt, consulta [Few-shot prompt engineering and fine-tuning for](https://aws.amazon.com/blogs/machine-learning/few-shot-prompt-engineering-and-fine-tuning-for-llms-in-amazon-bedrock/) in Amazon Bedrock (post del blog). LLMs AWS 

Ad esempio, quando estrai i dosaggi dei farmaci dalle note cliniche, puoi fornire esempi di diversi stili di notazione che aiutano il modello a riconoscere le variazioni nel modo in cui gli operatori sanitari documentano le prescrizioni. Questo approccio è particolarmente efficace quando si lavora con formati di documentazione standardizzati o quando esistono modelli coerenti nei dati.

#### Chain-of-thought suggerimento
<a name="chain-of-thought-prompting"></a>

*Chain-of-thought (CoT) prompting* guida l'LLM attraverso un processo di ragionamento. step-by-step Ciò lo rende utile per complesse attività di supporto decisionale medico e di ragionamento diagnostico. Insegnando esplicitamente al modello a «pensare passo dopo passo» durante l'analisi degli scenari clinici, è possibile migliorarne la capacità di seguire i protocolli di ragionamento medico e ridurre gli errori diagnostici.

Questa tecnica eccelle quando il ragionamento clinico richiede più passaggi logici, come la diagnosi differenziale o la pianificazione del trattamento. Tuttavia, questo approccio presenta dei limiti quando si tratta di conoscenze mediche altamente specializzate al di fuori dei dati di formazione del modello o quando è richiesta una precisione assoluta per le decisioni di terapia intensiva.

In questi casi, la combinazione di CoT con un altro approccio può produrre risultati migliori. Un'opzione è combinare CoT con la richiesta di autocoerenza. Per ulteriori informazioni, consulta [Migliorare le prestazioni dei modelli linguistici generativi con richieste di autocoerenza su Amazon Bedrock](https://aws.amazon.com/blogs/machine-learning/enhance-performance-of-generative-language-models-with-self-consistency-prompting-on-amazon-bedrock/) (AWS post del blog). Un'altra opzione è combinare framework di ragionamento, come il prompting, con RAG. ReAct Per ulteriori informazioni, consulta [Sviluppare assistenti avanzati basati sull'intelligenza artificiale generativa basati su chat utilizzando RAG](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/develop-advanced-generative-ai-chat-based-assistants-by-using-rag-and-react-prompting.html) e suggerimenti (Prescriptive Guidance). ReAct AWS 

### Generazione potenziata da recupero dati
<a name="llm-customization-rag"></a>

*Retrieval Augmented Generation (RAG)* è una tecnologia di intelligenza artificiale generativa in cui un LLM fa riferimento a una fonte di dati autorevole esterna alle sue fonti di dati di addestramento prima di generare una risposta. Un sistema RAG può recuperare informazioni sull'ontologia medica (come le classificazioni internazionali delle malattie, i fascicoli nazionali sui farmaci e i titoli delle materie mediche) da una fonte di conoscenza. Ciò fornisce un contesto aggiuntivo all'LLM a supporto dell'attività di PNL medica.

Come discusso nella [Combinazione di Amazon Comprehend Medical con modelli linguistici di grandi dimensioni](comprehend-medical-rag.md) sezione, puoi utilizzare un approccio RAG per recuperare il contesto da Amazon Comprehend Medical. Altre fonti di conoscenza comuni includono i dati del dominio medico archiviati in un servizio di database, come Amazon OpenSearch Service, Amazon Kendra o Amazon Aurora. L'estrazione di informazioni da queste fonti di conoscenza può influire sulle prestazioni di recupero, in particolare con le query semantiche che utilizzano un database vettoriale.

Un'altra opzione per archiviare e recuperare conoscenze specifiche del dominio consiste nell'utilizzare [Amazon Q Business](https://docs.aws.amazon.com/amazonq/latest/qbusiness-ug/what-is.html) nel flusso di lavoro RAG. Amazon Q Business può indicizzare gli archivi di documenti interni o i siti Web rivolti al pubblico (come [CMS.gov](https://cms.gov/) per i dati ICD-10). Amazon Q Business può quindi estrarre informazioni pertinenti da queste fonti prima di passare la richiesta al LLM.

Esistono diversi modi per creare un flusso di lavoro RAG personalizzato. Ad esempio, esistono molti modi per recuperare dati da una fonte di conoscenza. Per semplicità, consigliamo l'approccio di recupero comune che prevede l'utilizzo di un database vettoriale, come Amazon OpenSearch Service, per archiviare le conoscenze sotto forma di incorporamenti. Ciò richiede l'utilizzo di un modello di incorporamento, ad esempio un trasformatore di frasi, per generare incorporamenti per la query e per la conoscenza archiviata nel database vettoriale.

Per ulteriori informazioni sugli approcci RAG completamente gestiti e personalizzati, vedete Opzioni e architetture di [Retrieval](https://docs.aws.amazon.com/prescriptive-guidance/latest/retrieval-augmented-generation-options/introduction.html) Augmented Generation on. AWS

### Fine-tuning
<a name="llm-customization-fine-tuning"></a>

La *messa a punto di* un modello esistente implica l'adozione di un LLM, ad esempio un modello Amazon Titan, Mistral o Llama, e quindi l'adattamento del modello ai dati personalizzati. Esistono varie tecniche per la regolazione fine, la maggior parte delle quali prevede la modifica solo di alcuni parametri anziché la modifica di tutti i parametri del modello. Questa operazione è denominata *parameter-efficient* fine-tuning (PEFT). Per ulteriori informazioni, vedi [Hugging](https://github.com/huggingface/peft) Face PEFT on. GitHub

Di seguito sono riportati due casi d'uso comuni in cui è possibile scegliere di perfezionare un LLM per un'attività di PNL medica:
+ Attività **generativa: i modelli basati su decoder eseguono attività** di intelligenza artificiale generativa. AI/ML i professionisti utilizzano dati di base per mettere a punto un LLM esistente. Ad esempio, potresti addestrare il LLM utilizzando [MedQuAD](https://github.com/abachaa/MedQuAD), un set di dati medici pubblico per la risposta a domande. Quando si richiama una query al LLM ottimizzato, non è necessario un approccio RAG per fornire un contesto aggiuntivo al LLM.
+ **Incorporamenti**: i modelli basati su codificatori generano incorporamenti trasformando il testo in vettori numerici. *Questi modelli basati su codificatori sono in genere chiamati modelli di incorporamento.* Un modello di *trasformazione delle frasi è un tipo specifico di modello* di incorporamento ottimizzato per le frasi. L'obiettivo è generare incorporamenti dal testo di input. Gli incorporamenti vengono quindi utilizzati per l'analisi semantica o per attività di recupero. Per ottimizzare il modello di incorporamento, è necessario disporre di un corpus di conoscenze mediche, ad esempio documenti, da utilizzare come dati di formazione. Ciò si ottiene con coppie di testo basate sulla somiglianza o sul sentimento per mettere a punto un modello di trasformazione delle frasi. Per ulteriori informazioni, consulta [Training and Finetuning Embedding Models with Sentence Transformers v3](https://huggingface.co/blog/train-sentence-transformers) su Hugging Face.

Puoi usare [Amazon SageMaker Ground Truth](https://docs.aws.amazon.com/sagemaker/latest/dg/sms.html) per creare un set di dati di addestramento etichettato e di alta qualità. Puoi utilizzare l'output del set di dati etichettato di Ground Truth per eseguire l’addestramento dei tuoi modelli. Puoi anche utilizzare l'output come set di dati di addestramento per un modello Amazon SageMaker AI. Per ulteriori informazioni sul riconoscimento di entità denominate, sulla classificazione del testo con etichetta singola e sulla classificazione del testo multietichetta, consulta [Text labeling with Ground Truth](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-label-text.html) nella documentazione di Amazon SageMaker AI.

Per ulteriori informazioni sulla messa a punto, consulta questa guida. [Ottimizzazione di modelli linguistici di grandi dimensioni nel settore sanitario](fine-tuning.md)

## Scegliere un LLM
<a name="llm-selection"></a>

[Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/what-is-bedrock.html) è il punto di partenza consigliato per valutare le alte prestazioni LLMs. Per ulteriori informazioni, consulta [Modelli di base supportati in Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/models-supported.html). Puoi utilizzare i processi di valutazione dei modelli in Amazon Bedrock per confrontare gli output di più output e quindi scegliere il modello più adatto al tuo caso d'uso. Per ulteriori informazioni, consulta [Scegli il modello con le migliori prestazioni utilizzando le valutazioni di Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/model-evaluation.html) nella documentazione di Amazon Bedrock.

Alcuni LLMs hanno una formazione limitata sui dati del dominio medico. [Se il tuo caso d'uso richiede la messa a punto di un LLM o un LLM non supportato da Amazon Bedrock, prendi in considerazione l'utilizzo di Amazon AI. SageMaker ](https://docs.aws.amazon.com/sagemaker/latest/dg/whatis.html) Nell' SageMaker intelligenza artificiale, puoi utilizzare un LLM ottimizzato o scegliere un LLM personalizzato che è stato addestrato sui dati del dominio medico.

La tabella seguente elenca i più diffusi LLMs che sono stati formati sui dati del dominio medico.


| 
| 
| LLM | Processi | Competenze | Architecture | 
| --- |--- |--- |--- |
| [BioBert](https://github.com/dmis-lab/biobert) | Recupero delle informazioni, classificazione del testo e riconoscimento di entità denominate | Riassunti PubMed, articoli a testo completo e conoscenze generali del PubMedCentral dominio | Codificatore | 
| [Clinica Albert](https://github.com/kexinhuang12345/clinicalBERT) | Recupero delle informazioni, classificazione del testo e riconoscimento delle entità denominate | Ampio set di dati multicentrico insieme a oltre 3.000.000 di cartelle cliniche elettroniche (EHR) di pazienti | Codificatore | 
| [GPT clinico](https://huggingface.co/medicalai/ClinicalGPT-base-zh) | Riepilogo, risposta a domande e generazione di testo | Set di dati medici estesi e diversificati, tra cui cartelle cliniche, conoscenze specifiche del dominio e consultazioni di dialogo a più round | Decodificatore | 
| [GatorTron-VAI](https://catalog.ngc.nvidia.com/orgs/nvidia/teams/clara/models/gatortron_og) | Riepilogo, risposta a domande, generazione di testo e recupero di informazioni | Note cliniche e letteratura biomedica | Encoder | 
| [MedBert](https://github.com/ZhiGroup/Med-BERT) | Recupero delle informazioni, classificazione del testo e riconoscimento di entità denominate | Ampio set di dati di testi medici, note cliniche, documenti di ricerca e documenti relativi all'assistenza sanitaria | Codificatore | 
| [Med-Palm](https://sites.research.google/med-palm/) | Risposte a domande per scopi medici | Set di dati di testo medico e biomedico | Decodificatore | 
| [MedAlpaca](https://github.com/kbressem/medAlpaca) | Attività di risposta a domande e dialogo medico | Una varietà di testi medici, che comprendono risorse come flashcard mediche, wiki e set di dati di dialogo | Decodificatore | 
| [BioMedbert](https://huggingface.co/microsoft/BiomedNLP-BiomedBERT-base-uncased-abstract-fulltext) | Recupero delle informazioni, classificazione del testo e riconoscimento di entità denominate | Esclusivamente riassunti PubMed e articoli a testo completo di PubMedCentral | Codificatore | 
| [BioMedLM](https://github.com/stanford-crfm/BioMedLM) | Riepilogo, risposta a domande e generazione di testo | Letteratura biomedica da fonti di conoscenza PubMed  | Decodificatore | 

Di seguito sono riportate le migliori pratiche per l'utilizzo di medici preformati: LLMs
+ Comprendi i dati di formazione e la loro rilevanza per il tuo compito di PNL in ambito medico.
+ Identifica l'architettura LLM e il suo scopo. Gli encoder sono appropriati per gli incorporamenti e le attività NLP. I decoder servono per attività di generazione.
+ Valuta i requisiti di infrastruttura, prestazioni e costi per ospitare il LLM medico preformato.
+ Se è necessaria una messa a punto precisa, assicuratevi che i dati di addestramento siano accurati e veritieri. Assicurati di mascherare o oscurare qualsiasi informazione di identificazione personale (PII) o informazione sanitaria protetta (PHI).

Le attività mediche di PNL nel mondo reale potrebbero differire da quelle già LLMs addestrate in termini di conoscenze o casi d'uso previsti. Se un LLM specifico del dominio non soddisfa i benchmark di valutazione, puoi perfezionarlo con il tuo set di dati oppure puoi addestrare un nuovo modello di base. La formazione di un nuovo modello di base è un'impresa ambiziosa e spesso costosa. Per la maggior parte dei casi d'uso, consigliamo di perfezionare un modello esistente.

Quando si utilizza o si perfeziona un LLM medico preformato, è importante occuparsi dell'infrastruttura, della sicurezza e delle barriere.

### Infrastruttura
<a name="llm-selection-infrastructure"></a>

Rispetto all'utilizzo di Amazon Bedrock per l'inferenza su richiesta o in batch, l'hosting di LLM medici preformati (in genere di Hugging Face) richiede risorse significative. Per ospitare LLM medici preaddestrati, è comune utilizzare un'immagine Amazon SageMaker AI eseguita su un'istanza Amazon Elastic Compute Cloud (Amazon EC2) con una o GPUs più istanze, come le istanze ml.g5 per l'elaborazione accelerata o le istanze ml.inf2 per. AWS Inferentia Questo perché consumano una grande quantità di memoria e spazio su disco. LLMs 

### Sicurezza e guardrail
<a name="llm-selection-guardrails"></a>

A seconda dei requisiti di conformità aziendale, prendi in considerazione l'utilizzo di Amazon Comprehend e Amazon Comprehend Medical per mascherare o oscurare le informazioni di identificazione personale (PII) e le informazioni sanitarie protette (PHI) dai dati di formazione. Questo aiuta a impedire che l'LLM utilizzi dati riservati quando genera risposte.

Ti consigliamo di prendere in considerazione e valutare pregiudizi, equità e allucinazioni nelle tue applicazioni di intelligenza artificiale generativa. Che tu stia utilizzando un LLM preesistente o che ne stia ottimizzando uno, implementa dei guardrail per prevenire risposte dannose. I *guardrail* sono protezioni personalizzabili in base ai requisiti delle applicazioni di intelligenza artificiale generativa e alle politiche di intelligenza artificiale responsabili. Ad esempio, puoi utilizzare [Amazon Bedrock Guardrails](https://docs.aws.amazon.com/bedrock/latest/userguide/guardrails.html).

# Ottimizzazione di modelli linguistici di grandi dimensioni nel settore sanitario
<a name="fine-tuning"></a>

L'approccio di messa a punto descritto in questa sezione supporta la conformità alle linee guida etiche e normative e promuove l'uso responsabile dei sistemi di intelligenza artificiale nel settore sanitario. È progettato per generare informazioni accurate e private. L'intelligenza artificiale generativa sta rivoluzionando l'assistenza sanitaria, ma off-the-shelf i modelli spesso non sono all'altezza negli ambienti clinici in cui la precisione è fondamentale e la conformità non è negoziabile. L'ottimizzazione dei modelli di base con dati specifici del dominio colma questa lacuna. Ti aiuta a creare sistemi di intelligenza artificiale che parlano il linguaggio della medicina rispettando al contempo rigorosi standard normativi. Tuttavia, il percorso verso una messa a punto di successo richiede un'attenta analisi delle sfide uniche dell'assistenza sanitaria: proteggere i dati sensibili, giustificare gli investimenti nell'IA con risultati misurabili e mantenere la rilevanza clinica in un panorama medico in rapida evoluzione.

Quando gli approcci più leggeri raggiungono i loro limiti, la messa a punto diventa un investimento strategico. L'aspettativa è che i miglioramenti in termini di precisione, latenza o efficienza operativa compenseranno i significativi costi di calcolo e progettazione richiesti. È importante ricordare che il ritmo di avanzamento dei modelli di base è rapido, quindi il vantaggio di un modello ottimizzato potrebbe durare solo fino alla prossima release principale del modello.

Questa sezione analizza la discussione sui seguenti due casi d'uso ad alto impatto da parte di clienti del settore sanitario: AWS 
+ **Sistemi di supporto alle decisioni cliniche**: migliorano l'accuratezza diagnostica attraverso modelli che comprendono le storie complesse dei pazienti e le linee guida in evoluzione. La messa a punto può aiutare i modelli a comprendere a fondo le storie complesse dei pazienti e a integrare linee guida specializzate. Ciò può potenzialmente ridurre gli errori di previsione dei modelli. Tuttavia, è necessario soppesare questi vantaggi rispetto al costo della formazione su set di dati sensibili di grandi dimensioni e all'infrastruttura necessaria per applicazioni cliniche ad alto rischio. La maggiore precisione e consapevolezza del contesto giustificheranno l'investimento, soprattutto quando nuovi modelli vengono rilasciati frequentemente?
+ **Analisi dei documenti medici**: automatizza l'elaborazione di note cliniche, report di imaging e documenti assicurativi mantenendo la conformità all'Health Insurance Portability and Accountability Act (HIPAA). In questo caso, la messa a punto può consentire al modello di gestire in modo più efficace formati unici, abbreviazioni specializzate e requisiti normativi. I vantaggi si ottengono spesso grazie alla riduzione dei tempi di revisione manuale e al miglioramento della conformità. Tuttavia, è essenziale valutare se questi miglioramenti sono sufficientemente sostanziali da giustificare le risorse necessarie per la messa a punto. Determina se la progettazione tempestiva e l'orchestrazione del flusso di lavoro sono in grado di soddisfare le tue esigenze.

Questi scenari reali illustrano il percorso di perfezionamento, dalla sperimentazione iniziale all'implementazione del modello, rispondendo al contempo ai requisiti unici dell'assistenza sanitaria in ogni fase.

## Stima dei costi e del ritorno sull'investimento
<a name="fine-tuning-costs"></a>

Di seguito sono riportati i fattori di costo da considerare quando si perfeziona un LLM:
+ **Dimensioni del modello:** i modelli più grandi costano di più per la messa a punto
+ **Dimensioni del set** di dati: i costi e i tempi di elaborazione aumentano con la dimensione del set di dati per la messa a punto
+ **Strategia di ottimizzazione: i metodi efficienti in termini di** parametri possono ridurre i costi rispetto agli aggiornamenti completi dei parametri

Nel calcolare il ritorno sull'investimento (ROI), considerate il miglioramento delle metriche scelte (ad esempio la precisione) moltiplicato per il volume delle richieste (con quale frequenza verrà utilizzato il modello) e la durata prevista prima che il modello venga superato dalle versioni più recenti.

Inoltre, considera la durata del tuo LLM di base. Nuovi modelli base emergono ogni 6-12 mesi. Se il tuo rilevatore di malattie rare impiega 8 mesi per perfezionare e convalidare, potresti ottenere solo 4 mesi di prestazioni superiori prima che i modelli più recenti colmino il divario.

Calcolando i costi, il ROI e la potenziale durata di vita per il tuo caso d'uso, puoi prendere una decisione basata sui dati. Ad esempio, se l'ottimizzazione del modello di supporto alle decisioni cliniche porta a una riduzione misurabile degli errori diagnostici in migliaia di casi all'anno, l'investimento potrebbe ripagare rapidamente. Al contrario, se la sola progettazione tempestiva consente di avvicinare il flusso di lavoro per l'analisi dei documenti alla precisione prefissata, potrebbe essere saggio rimandare la messa a punto fino all'arrivo della prossima generazione di modelli.

 one-size-fits-allLa messa a punto non lo è. Se decidi di perfezionare, l'approccio giusto dipende dal caso d'uso, dai dati e dalle risorse.

## Scelta di una strategia di ottimizzazione
<a name="fine-tuning-strategy"></a>

Dopo aver stabilito che la messa a punto è l'approccio giusto per il vostro caso d'uso nel settore sanitario, il passo successivo consiste nella selezione della strategia di messa a punto più appropriata. Sono disponibili diversi approcci. Ciascuno presenta vantaggi e compromessi distinti per le applicazioni sanitarie. La scelta tra questi metodi dipende dagli obiettivi specifici, dai dati disponibili e dai limiti delle risorse.

### Obiettivi di formazione
<a name="fine-tuning-strategy-training-objectives"></a>

Il [pre-training adattivo al dominio (DAPT)](https://arxiv.org/abs/2504.09687) è un metodo senza supervisione che prevede la formazione preliminare del modello su un ampio corpus di testo specifico del dominio e senza etichetta (come milioni di documenti medici). Questo approccio è ideale per migliorare la capacità dei modelli di comprendere le abbreviazioni delle specialità mediche e la terminologia utilizzata da radiologi, neurologi e altri fornitori specializzati. Tuttavia, DAPT richiede grandi quantità di dati e non affronta attività specifiche.

Il [Supervised Fine-Tuning (SFT)](https://arxiv.org/abs/2506.14681) insegna al modello a seguire istruzioni esplicite utilizzando esempi strutturati di input-output. Questo approccio eccelle per i flussi di lavoro di analisi dei documenti medici, come il riepilogo dei documenti o la codifica clinica. *L'ottimizzazione delle istruzioni* è una forma comune di SFT in cui il modello viene addestrato sulla base di esempi che includono istruzioni esplicite abbinate agli output desiderati. Ciò migliora la capacità del modello di comprendere e seguire le diverse istruzioni dell'utente. Questa tecnica è particolarmente utile in ambito sanitario perché addestra il modello con esempi clinici specifici. Lo svantaggio principale è che richiede esempi accuratamente etichettati. Inoltre, il modello perfezionato potrebbe avere problemi con casi limite in cui non ci sono esempi. Per istruzioni sulla messa a punto con Amazon SageMaker Jumpstart, consulta [Istruzioni di ottimizzazione per FLAN T5](https://aws.amazon.com/blogs/machine-learning/instruction-fine-tuning-for-flan-t5-xl-with-amazon-sagemaker-jumpstart/) XL con Amazon Jumpstart (post di blog). SageMaker AWS 

[L'apprendimento per rinforzo dal feedback umano (RLHF) ottimizza il comportamento del modello in base al feedback](https://aws.amazon.com/what-is/reinforcement-learning-from-human-feedback/) e alle preferenze degli esperti. Utilizza un modello di ricompensa basato sulle preferenze e sui metodi umani, come l'ottimizzazione delle [politiche prossimali (PPO) o l'ottimizzazione delle preferenze dirette (DPO)](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune-hyperpod-ppo.html)[, per ottimizzare](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune-hyperpod-dpo.html) il modello evitando aggiornamenti distruttivi. RLHF è ideale per allineare i risultati alle linee guida cliniche e assicurarsi che le raccomandazioni rientrino nei protocolli approvati. Questo approccio richiede molto tempo da parte del medico per il feedback e prevede una pipeline di formazione complessa. Tuttavia, RLHF è particolarmente utile nel settore sanitario perché aiuta gli esperti medici a modellare il modo in cui i sistemi di intelligenza artificiale comunicano e formulano raccomandazioni. Ad esempio, i medici possono fornire feedback per assicurarsi che il modello mantenga un atteggiamento appropriato al paziente, sappia quando esprimere incertezze e rispetti le linee guida cliniche. Tecniche come il PPO ottimizzano iterativamente il comportamento del modello sulla base del feedback degli esperti, limitando al contempo gli aggiornamenti dei parametri per preservare le conoscenze mediche di base. Ciò consente ai modelli di formulare diagnosi complesse in un linguaggio adatto al paziente, pur segnalando condizioni gravi da sottoporre a cure mediche immediate. Questo è fondamentale per l'assistenza sanitaria, dove sia la precisione che lo stile di comunicazione sono importanti. Per ulteriori informazioni su RLHF, consulta [Ottimizzazione di modelli linguistici di grandi dimensioni con l'apprendimento per rinforzo basato sul feedback umano o basato sull'intelligenza artificiale](https://aws.amazon.com/blogs/machine-learning/fine-tune-large-language-models-with-reinforcement-learning-from-human-or-ai-feedback/) (post sul blog).AWS 

### Metodi di implementazione
<a name="fine-tuning-strategy-implementation"></a>

Un aggiornamento *completo dei parametri comporta l'aggiornamento* di tutti i parametri del modello durante l'addestramento. Questo approccio funziona meglio per i sistemi di supporto alle decisioni cliniche che richiedono una profonda integrazione delle storie dei pazienti, dei risultati di laboratorio e delle linee guida in evoluzione. Gli svantaggi includono costi di elaborazione elevati e rischio di sovraadattamento se il set di dati non è ampio e diversificato.

I metodi [PEFT (Parameter-Efficient Fine-Tuning)](https://arxiv.org/abs/2312.12148) aggiornano solo un sottoinsieme di parametri per evitare un sovraadattamento o una perdita catastrofica delle funzionalità linguistiche. I tipi includono l'adattamento a [basso](https://arxiv.org/abs/2106.09685) rango (LoRa), gli adattatori e l'ottimizzazione dei prefissi. I metodi PEFT offrono costi computazionali inferiori, una formazione più rapida e sono ideali per esperimenti come l'adattamento di un modello di supporto decisionale clinico ai nuovi protocolli o alla terminologia di un nuovo ospedale. La limitazione principale è rappresentata dalla potenziale riduzione delle prestazioni rispetto agli aggiornamenti completi dei parametri.

Per ulteriori informazioni sui metodi di fine-tuning, consulta [Advanced fine-tuning methods on SageMaker Amazon](https://aws.amazon.com/blogs/machine-learning/advanced-fine-tuning-methods-on-amazon-sagemaker-ai/) AI (post del blog).AWS 

## Creazione di un set di dati di ottimizzazione
<a name="fine-tuning-dataset"></a>

La qualità e la diversità del set di dati di ottimizzazione sono fondamentali per le prestazioni del modello, la sicurezza e la prevenzione delle distorsioni. Di seguito sono riportate tre aree critiche da considerare durante la creazione di questo set di dati:
+ Volume basato su un approccio di ottimizzazione
+ Annotazione dei dati fornita da un esperto del settore
+ Diversità del set di dati

Come illustrato nella tabella seguente, i requisiti relativi alle dimensioni del set di dati per la regolazione fine variano in base al tipo di ottimizzazione eseguita.


| 
| 
| **Strategia di messa a punto** | **Dimensioni del set di dati** | 
| --- |--- |
| Formazione preliminare adattata al dominio | Oltre 100.000 testi di dominio | 
| Ottimizzazione supervisionata | Oltre 10.000 paia etichettate | 
| Apprendimento per rinforzo basato sul feedback umano | Oltre 1.000 coppie di preferenze di esperti | 

Puoi utilizzare [AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/what-is-glue.html)[Amazon EMR e Amazon SageMaker ](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-what-is-emr.html) [Data Wrangler](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler.html) per automatizzare il processo di estrazione e trasformazione dei dati per curare un set di dati di tua proprietà. Se non sei in grado di curare un set di dati sufficientemente grande, puoi scoprire e scaricare i set di dati direttamente nel tuo sito. Account AWS [AWS Data Exchange](https://docs.aws.amazon.com/data-exchange/latest/userguide/what-is.html) Consultate il vostro consulente legale prima di utilizzare set di dati di terze parti.

Annotatori esperti con conoscenze di settore, come medici, biologi e chimici, dovrebbero far parte del processo di cura dei dati per incorporare le sfumature dei dati medici e biologici nell'output del modello. [Amazon SageMaker Ground Truth](https://docs.aws.amazon.com/sagemaker/latest/dg/sms.html) fornisce un'interfaccia utente a basso codice per consentire agli esperti di annotare il set di dati.

Un set di dati che rappresenti la popolazione umana è essenziale per ottimizzare i casi d'uso nel settore sanitario e delle scienze biologiche per evitare distorsioni e riflettere i risultati del mondo reale. [AWS Glue le sessioni interattive o le](https://docs.aws.amazon.com/glue/latest/dg/interactive-sessions-chapter.html) [istanze di SageMaker notebook Amazon](https://docs.aws.amazon.com/sagemaker/latest/dg/nbi.html) offrono un modo efficace per esplorare in modo iterativo i set di dati e ottimizzare le trasformazioni utilizzando notebook compatibili con Jupyter. Le sessioni interattive ti consentono di lavorare con una scelta di ambienti di sviluppo integrati più diffusi () nel tuo ambiente locale. IDEs In alternativa, puoi lavorare con AWS Glue i [nostri notebook Amazon SageMaker Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html) tramite. Console di gestione AWS

## Ottimizzazione del modello
<a name="fine-tuning-implementation"></a>

AWS fornisce servizi come [Amazon SageMaker AI e Amazon](https://docs.aws.amazon.com/sagemaker/latest/dg/whatis.html) [Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/what-is-bedrock.html) che sono fondamentali per una messa a punto di successo.

SageMaker L'intelligenza artificiale è un servizio di machine learning completamente gestito che aiuta gli sviluppatori e i data scientist a creare, addestrare e implementare rapidamente modelli di machine learning. Tre funzioni utili dell' SageMaker intelligenza artificiale per la messa a punto includono:
+ [SageMakerFormazione](https://docs.aws.amazon.com/sagemaker/latest/dg/train-model.html): una funzionalità di machine learning completamente gestita che consente di addestrare in modo efficiente un'ampia gamma di modelli su larga scala
+ [SageMaker JumpStart](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-jumpstart.html)— Una funzionalità che si basa sui lavori di SageMaker formazione per fornire modelli preaddestrati, algoritmi integrati e modelli di soluzioni per le attività di machine learning
+ [SageMaker HyperPod](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-hyperpod.html)— Una soluzione di infrastruttura appositamente progettata per la formazione distribuita dei modelli di base e LLMs

Amazon Bedrock è un servizio completamente gestito che fornisce l'accesso a modelli di base ad alte prestazioni tramite un'API, con funzionalità integrate di sicurezza, privacy e scalabilità. Il servizio offre la possibilità di perfezionare diversi modelli di base disponibili. Per ulteriori informazioni, consulta [Modelli e regioni supportati per la messa a punto e la formazione preliminare continua nella](https://docs.aws.amazon.com/bedrock/latest/userguide/custom-model-supported.html) documentazione di Amazon Bedrock.

Quando affronti il processo di messa a punto con uno dei due servizi, prendi in considerazione il modello base, la strategia di messa a punto e l'infrastruttura.

### Scelta del modello base
<a name="base-model-choice.9ac49dfa-0d0f-5434-9ce4-383d4d601722"></a>

I modelli closed-source, come Anthropic Claude, Meta Llama e Amazon Nova, offrono out-of-the-box prestazioni elevate con conformità gestita, ma limitano la flessibilità di ottimizzazione alle opzioni supportate dal provider, ad esempio gestite come Amazon Bedrock. APIs Ciò limita la personalizzabilità, in particolare per i casi d'uso sanitari regolamentati. Al contrario, i modelli open source, come Meta Llama, offrono controllo e flessibilità completi su tutti i servizi di SageMaker intelligenza artificiale di Amazon, rendendoli ideali quando devi personalizzare, controllare o adattare profondamente un modello ai tuoi requisiti specifici di dati o flussi di lavoro.

### Strategia di perfezionamento
<a name="fine-tuning-strategy.5c89c2cc-a11b-5bbd-9b85-f487aafd92ed"></a>

La semplice regolazione delle istruzioni può essere gestita tramite la [personalizzazione del modello](https://docs.aws.amazon.com/bedrock/latest/userguide/custom-models.html) Amazon Bedrock o Amazon. SageMaker JumpStart Approcci PEFT complessi, come LoRa o adattatori, richiedono lavori di SageMaker formazione o funzionalità di ottimizzazione personalizzate in Amazon Bedrock. La formazione distribuita per modelli molto grandi è supportata da. SageMaker HyperPod

### Scalabilità e controllo dell'infrastruttura
<a name="infrastructure-scale-and-control.cdf2ff70-3099-570b-a6ed-d7ae06a019a0"></a>

I servizi completamente gestiti, come Amazon Bedrock, riducono al minimo la gestione dell'infrastruttura e sono ideali per le organizzazioni che danno priorità alla facilità d'uso e alla conformità. Le opzioni semi-gestite, ad esempio SageMaker JumpStart, offrono una certa flessibilità con una minore complessità. Queste opzioni sono adatte per la prototipazione rapida o per l'utilizzo di flussi di lavoro predefiniti. Il pieno controllo e la personalizzazione derivano dai lavori di SageMaker formazione, che HyperPod, sebbene richiedano maggiore esperienza, sono ideali quando è necessario scalare per set di dati di grandi dimensioni o richiedere pipeline personalizzate.

## Monitoraggio di modelli ottimizzati
<a name="fine-tuning-monitoring"></a>

Nel settore sanitario e delle scienze della vita, il monitoraggio della messa a punto del LLM richiede il monitoraggio di più indicatori chiave di performance. L'accuratezza fornisce una misurazione di base, ma questa deve essere bilanciata con la precisione e il richiamo, in particolare nelle applicazioni in cui le classificazioni errate comportano conseguenze significative. Il punteggio F1 aiuta a risolvere i problemi di squilibrio di classe che possono essere comuni nei set di dati medici. Per ulteriori informazioni sul tagging, consulta [Valutazione LLMs per applicazioni nel settore sanitario e delle scienze della vita](evaluation.md)in questa guida.

Le metriche di calibrazione aiutano a garantire che i livelli di confidenza del modello corrispondano alle probabilità del mondo reale. Le [metriche di equità](https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-measure-data-bias.html) possono aiutarti a rilevare potenziali pregiudizi nei diversi dati demografici dei pazienti.

[MLflow](https://docs.aws.amazon.com/sagemaker/latest/dg/mlflow.html)è una soluzione open source che può aiutarti a tenere traccia degli esperimenti di messa a punto. MLflow è supportato nativamente all'interno di Amazon SageMaker AI, il che ti aiuta a confrontare visivamente le metriche dei corsi di formazione. Per i lavori di ottimizzazione su Amazon Bedrock, le metriche vengono trasmesse in streaming ad Amazon CloudWatch in modo da poterle visualizzare nella console. CloudWatch 