

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Approches génératives de l'IA et de la PNL pour les soins de santé et les sciences de la vie
<a name="hcls-options"></a>

Le traitement du langage naturel (NLP) est une technologie d'apprentissage automatique qui permet aux ordinateurs d'interpréter, de manipuler et de comprendre le langage humain. Les organisations du secteur de la santé et des sciences de la vie disposent d'importants volumes de données provenant des dossiers des patients. Ils peuvent utiliser un logiciel NLP pour traiter automatiquement ces données. Par exemple, ils peuvent associer la PNL à l'IA générative pour rationaliser le codage médical, extraire des informations sur les patients et résumer les dossiers.

Selon la tâche NLP que vous souhaitez effectuer, différentes architectures peuvent être les mieux adaptées à votre cas d'utilisation. Ce guide aborde les options d'IA générative et de PNL suivantes pour les applications des soins de santé et des sciences de la vie sur AWS :
+ [Utilisation d'Amazon Comprehend Medical](comprehend-medical.md)— Découvrez comment utiliser Amazon Comprehend Medical de manière indépendante, sans l'intégrer à un grand modèle de langage (LLM).
+ [Combiner Amazon Comprehend Medical avec de grands modèles linguistiques](comprehend-medical-rag.md)— Découvrez comment associer Amazon Comprehend Medical à un LLM dans une architecture RAG (Retrieval Augment Generation).
+ [Utilisation de grands modèles linguistiques pour les cas d'utilisation dans le domaine de la santé et des sciences de la vie](llms.md)— Découvrez comment utiliser un LLM pour les applications de santé et des sciences de la vie, soit en utilisant un LLM affiné, soit une architecture RAG.

# Utilisation d'Amazon Comprehend Medical
<a name="comprehend-medical"></a>

[Amazon Comprehend](https://docs.aws.amazon.com/comprehend-medical/latest/dev/comprehendmedical-welcome.html) Medical détecte et renvoie des informations utiles dans des textes cliniques non structurés, tels que des notes du médecin, des résumés de sortie, des résultats de tests et des notes de cas. Service AWS Il utilise des modèles de traitement du langage naturel (NLP) pour détecter les entités. Les *entités sont des* références textuelles à des informations médicales, telles que des problèmes de santé, des médicaments ou des informations de santé protégées (PHI).

**Important**  
Amazon Comprehend Medical ne remplace pas un avis médical, un diagnostic ou un traitement professionnel. Amazon Comprehend Medical fournit des scores de confiance qui indiquent le niveau de confiance dans la précision des entités détectées. Déterminez le seuil de confiance approprié pour votre cas et utilisez des seuils de confiance élevés dans les situations qui exigent une grande précision. Dans certains cas d'utilisation, les résultats doivent être examinés et vérifiés par des évaluateurs humains dûment formés. Par exemple, Amazon Comprehend Medical ne doit être utilisé dans des scénarios de soins aux patients qu'après vérification de l'exactitude et du bon jugement médical par des professionnels de santé qualifiés.

Vous pouvez accéder à Amazon Comprehend Medical via AWS Management Console le, AWS Command Line Interface le AWS CLI() ou via AWS SDKs le. Ils AWS SDKs sont disponibles pour différents langages de programmation et plateformes, tels que Java, Python, Ruby, .NET, iOS et Android. Vous pouvez utiliser le SDKs pour accéder par programmation à Amazon Comprehend Medical depuis votre application client.

Cette section passe en revue les principales fonctionnalités d'Amazon Comprehend Medical. Il décrit également les avantages de l'utilisation de ce service par rapport à un grand modèle linguistique (LLM).

## Fonctionnalités d'Amazon Comprehend Medical
<a name="comprehend-medical-capabilities"></a>

Amazon Comprehend Medical APIs propose une inférence en temps quasi réel et par lots. Ils APIs peuvent ingérer du texte médical et fournir des résultats pour les tâches de PNL médicale en utilisant la reconnaissance des entités médicales et en identifiant les relations entre les entités. Vous pouvez effectuer une analyse à la fois sur des fichiers individuels ou sous forme d'analyse par lots sur plusieurs fichiers stockés dans un bucket Amazon Simple Storage Service (Amazon S3). Amazon Comprehend Medical propose les opérations d'API d'analyse de texte suivantes pour la détection synchrone des entités :
+ [Détecter les entités](https://docs.aws.amazon.com/comprehend-medical/latest/dev/textanalysis-entitiesv2.html) : détecte les catégories médicales générales telles que l'anatomie, l'état de santé, la catégorie PHI, les procédures et les expressions temporelles.
+ [Détecter les PHI](https://docs.aws.amazon.com/comprehend-medical/latest/dev/textanalysis-phi.html) — Détecte des entités spécifiques telles que l'âge, la date, le nom et des informations personnelles similaires.

Amazon Comprehend Medical inclut également plusieurs opérations d'API que vous pouvez utiliser pour effectuer une analyse de texte par lots sur des documents cliniques. Pour en savoir plus sur l'utilisation de ces opérations d'API, consultez la section [Analyse de texte par lots APIs](https://docs.aws.amazon.com/comprehend-medical/latest/dev/textanalysis-batchapi.html).

Utilisez Amazon Comprehend Medical pour détecter des entités dans un texte clinique et relier ces entités à des concepts issus d'ontologies médicales standardisées, notamment RxNorm les bases de connaissances ICD-10-CM et SNOMED CT. Vous pouvez effectuer une analyse à la fois sur des fichiers individuels ou sous forme d'analyse par lots sur des documents volumineux ou sur plusieurs fichiers stockés dans un compartiment Amazon S3. Amazon Comprehend Medical propose l'ontologie suivante reliant les opérations d'API :
+ [Infer ICD10 CM](https://docs.aws.amazon.com/comprehend-medical/latest/dev/ontology-icd10.html) — L'opération **Infer ICD10 CM** détecte les affections médicales potentielles et les relie aux codes de la version 2019 de la Classification internationale des maladies, 10e révision, modification clinique (ICD-10-CM). Pour chaque problème médical potentiel détecté, Amazon Comprehend Medical répertorie les codes et descriptions ICD-10-CM correspondants. Les affections médicales répertoriées dans les résultats incluent un score de confiance, qui indique la confiance d'Amazon Comprehend Medical dans la précision des entités par rapport aux concepts correspondants dans les résultats.
+ [InferRxNorm](https://docs.aws.amazon.com/comprehend-medical/latest/dev/ontology-RxNorm.html)— L'**InferRxNorm**opération identifie les médicaments répertoriés dans le dossier d'un patient en tant qu'entités. Il relie les entités aux identificateurs de concepts (RxCUI) de la RxNorm base de données de la National Library of Medicine. Chaque RxCUI est unique pour différents dosages et formes posologiques. Les médicaments listés dans les résultats incluent un score de confiance, qui indique la confiance d'Amazon Comprehend Medical dans la précision des entités correspondant aux concepts de RxNorm la base de connaissances. Amazon Comprehend Medical répertorie les meilleurs CUIs Rx susceptibles de correspondre à chaque médicament détecté par ordre décroissant en fonction du score de confiance.
+ [InfersNoMedCT](https://docs.aws.amazon.com/comprehend-medical/latest/dev/ontology-linking-snomed.html) — L'opération **InfersNoMedCT identifie les concepts médicaux possibles en tant qu'entités et les relie aux codes de la version 2021-03 de la Nomenclature** systématisée de la médecine, termes cliniques (SNOMED CT). SNOMED CT fournit un vocabulaire complet de concepts médicaux, y compris les affections médicales et l'anatomie, ainsi que les tests médicaux, les traitements et les procédures. Pour chaque identifiant de concept correspondant, Amazon Comprehend Medical renvoie les cinq principaux concepts médicaux, chacun avec un score de confiance et des informations contextuelles telles que les traits et les attributs. Le concept SNOMED CT IDs peut ensuite être utilisé pour structurer les données cliniques des patients à des fins de codage médical, de reporting ou d'analyse clinique lorsqu'il est utilisé avec la polyhiérarchie SNOMED CT.

Pour plus d'informations, consultez [Analyse de texte APIs](https://docs.aws.amazon.com/comprehend-medical/latest/dev/comprehendmedical-textanalysis.html) et association d'[ontologies APIs dans la](https://docs.aws.amazon.com/comprehend-medical/latest/dev/comprehendmedical-ontologies.html) documentation Amazon Comprehend Medical.

## Cas d'utilisation d'Amazon Comprehend Medical
<a name="comprehend-medical-use-cases"></a>

En tant que service autonome, Amazon Comprehend Medical peut répondre au cas d'utilisation de votre entreprise. Amazon Comprehend Medical peut effectuer des tâches telles que les suivantes :
+ Aide au codage médical dans les dossiers des patients
+ Détecter les données de santé protégées (PHI)
+ Validation des médicaments, y compris les attributs tels que la posologie, la fréquence et la forme

Les résultats d'Amazon Comprehend Medical sont assimilables pour la majorité des cabinets médicaux. Toutefois, vous devrez peut-être envisager d'autres solutions si vous avez des limitations telles que les suivantes :
+ **Différentes définitions d'entités** — Par exemple, votre définition `FREQUENCY` d'une entité médicamenteuse peut être différente. Pour ce qui est de la fréquence, Amazon Comprehend Medical *prévoit en fonction des* besoins, mais votre organisation peut utiliser le *terme pro re nata* (PRN).
+ **Une quantité impressionnante de résultats** — Par exemple, les notes des patients contiennent souvent plusieurs symptômes et des mots clés correspondant à plusieurs codes ICD-10-CM. Cependant, plusieurs mots clés ne sont pas applicables au diagnostic. Dans ce cas, le fournisseur doit évaluer de nombreuses entités ICD-10-CM et leurs scores de confiance, ce qui nécessite un temps de traitement manuel.
+ **Entités personnalisées ou tâches NLP** : par exemple, les prestataires peuvent vouloir extraire des preuves du PRN, par exemple en cas de *douleur*. Comme ce produit n'est pas disponible via Amazon Comprehend Medical, un AI/ML autre modèle est justifié. Une AI/ML solution différente est requise si la tâche NLP ne relève pas de la reconnaissance des entités, telle que la synthèse, la réponse aux questions et l'analyse des sentiments.

# Combiner Amazon Comprehend Medical avec de grands modèles linguistiques
<a name="comprehend-medical-rag"></a>

Une [étude réalisée en 2024 par NEJM AI](https://ai.nejm.org/doi/pdf/10.1056/AIdbp2300040) a montré que l'utilisation d'un LLM, avec indication « zero shot », pour les tâches de codage médical entraîne généralement de mauvaises performances. L'utilisation d'Amazon Comprehend Medical avec un LLM peut contribuer à atténuer ces problèmes de performances. Les résultats d'Amazon Comprehend Medical constituent un contexte utile pour un LLM qui effectue des tâches de PNL. Par exemple, le fait de fournir un contexte allant d'Amazon Comprehend Medical au modèle linguistique étendu peut vous aider à :
+ Améliorez la précision des sélections d'entités en utilisant les premiers résultats d'Amazon Comprehend Medical comme contexte pour le LLM
+ Implémentez la reconnaissance d'entités personnalisées, la synthèse, la réponse aux questions et des cas d'utilisation supplémentaires

Cette section explique comment associer Amazon Comprehend Medical à un LLM en utilisant une approche RAG (Retrieval Augmented Generation). *La génération augmentée de récupération (RAG)* est une technologie d'IA générative dans laquelle un LLM fait référence à une source de données faisant autorité qui se trouve en dehors de ses sources de données de formation avant de générer une réponse. Pour plus d'informations, voir [Qu'est-ce que RAG ?](https://aws.amazon.com/what-is/retrieval-augmented-generation/)

Pour illustrer cette approche, cette section utilise l'exemple du codage médical (diagnostique) lié à la CIM-10-CM. Il inclut un exemple d'architecture et des modèles d'ingénierie rapides pour vous aider à accélérer votre innovation. Il inclut également les meilleures pratiques pour utiliser Amazon Comprehend Medical dans un flux de travail RAG.

## Architecture basée sur RAG avec Amazon Comprehend Medical
<a name="comprehend-medical-rag-architecture"></a>

Le schéma suivant illustre une approche RAG pour identifier les codes de diagnostic ICD-10-CM à partir des notes des patients. Il utilise Amazon Comprehend Medical comme source de connaissances. Dans une approche RAG, la méthode de récupération extrait généralement des informations d'une base de données vectorielle contenant les connaissances applicables. Au lieu d'une base de données vectorielle, cette architecture utilise Amazon Comprehend Medical pour la tâche de récupération. L'orchestrateur envoie les informations de la note du patient à Amazon Comprehend Medical et récupère les informations du code ICD-10-CM. L'orchestrateur envoie ce contexte au modèle de base en aval (LLM), via Amazon Bedrock. Le LLM génère une réponse en utilisant les informations du code ICD-10-CM, et cette réponse est renvoyée à l'application cliente.

![\[Un flux de travail RAG qui utilise Amazon Comprehend Medical comme source de connaissances.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/generative-ai-nlp-healthcare/images/architecture-comprehend-medical-rag-workflow.png)


Le diagramme montre le flux de travail RAG suivant :

1. L'application cliente envoie les notes du patient sous forme de requête à l'orchestrateur. Voici un exemple de ces remarques à l'intention des patients : « La patiente est une patiente de 71 ans du Dr X. La patiente s'est présentée aux urgences hier soir avec des douleurs abdominales persistantes depuis environ 7 à 8 jours. Elle n'a pas eu de fièvres ou de frissons précis et n'a aucun antécédent de jaunisse. Le patient nie toute perte de poids récente significative. »

1. L'orchestrateur utilise Amazon Comprehend Medical pour récupérer les codes ICD-10-CM relatifs aux informations médicales contenues dans la requête. Il utilise l'API **Infer ICD10 CM** pour extraire et déduire les codes ICD-10-CM à partir des notes du patient.

1. L'orchestrateur crée une invite qui inclut le modèle d'invite, la requête d'origine et les codes ICD-10-CM extraits d'Amazon Comprehend Medical. Il envoie ce contexte amélioré à Amazon Bedrock.

1. Amazon Bedrock traite les entrées et utilise un modèle de base pour générer une réponse qui inclut les codes ICD-10-CM et les preuves correspondantes issues de la requête. La réponse générée inclut les codes ICD-10-CM identifiés et les preuves provenant des notes du patient qui soutiennent chaque code. Voici un exemple de réponse :

   ```
   <response>
   <icd10>
   <code>R10.9</code>
   <evidence>history of abdominal pain</evidence>
   </icd10>
   <icd10>
   <code>R10.30</code>
   <evidence>history of abdominal pain</evidence>
   </icd10>
   </response>
   ```

1. Amazon Bedrock envoie la réponse générée à l'orchestrateur.

1. L'orchestrateur renvoie la réponse à l'application cliente, où l'utilisateur peut consulter la réponse.

## Cas d'utilisation d'Amazon Comprehend Medical dans un flux de travail RAG
<a name="comprehend-medical-rag-use-cases"></a>

Amazon Comprehend Medical peut effectuer des tâches de PNL spécifiques. Pour plus d'informations, consultez la section [Cas d'utilisation d'Amazon Comprehend Medical](comprehend-medical.md#comprehend-medical-use-cases).

Vous souhaiterez peut-être intégrer Amazon Comprehend Medical dans un flux de travail RAG pour les cas d'utilisation avancés, tels que les suivants :
+ Générez des résumés cliniques détaillés en combinant des entités médicales extraites avec des informations contextuelles issues des dossiers des patients
+ Automatisez le codage médical pour les cas complexes en utilisant des entités extraites avec des informations liées à l'ontologie pour l'attribution du code
+ Automatisez la création de notes cliniques structurées à partir de texte non structuré en utilisant des entités médicales extraites
+ Analyser les effets secondaires des médicaments en fonction des noms et des attributs des médicaments extraits
+ Développez des systèmes de soutien clinique intelligents qui combinent les informations médicales extraites avec up-to-date la recherche et les directives

## Bonnes pratiques pour utiliser Amazon Comprehend Medical dans un flux de travail RAG
<a name="comprehend-medical-rag-best-practices"></a>

Lorsque vous intégrez les résultats d'Amazon Comprehend Medical dans une demande de LLM, il est essentiel de suivre les meilleures pratiques. Cela peut améliorer les performances et la précision. Les principales recommandations sont les suivantes :
+ **Comprendre les scores de confiance d'Amazon Comprehend Medical** — Amazon Comprehend Medical fournit des scores de confiance pour chaque entité détectée et pour chaque lien d'ontologie. Il est essentiel de comprendre la signification de ces scores et d'établir des seuils appropriés pour votre cas d'utilisation spécifique. Les scores de confiance aident à filtrer les entités peu fiables, à réduire le bruit et à améliorer la qualité des entrées du LLM.
+ **Utilisez les scores de confiance pour une ingénierie rapide** : lors de l'élaboration des instructions pour le LLM, pensez à intégrer les scores de confiance d'Amazon Comprehend Medical comme contexte supplémentaire. Cela permet au LLM de hiérarchiser ou d'évaluer les entités en fonction de leur niveau de confiance, améliorant ainsi potentiellement la qualité du résultat.
+ **Évaluez les résultats d'Amazon Comprehend Medical à l'aide de données fiables** sur *le terrain — Les données fiables sur le terrain sont des informations dont la véracité* est reconnue. Il peut être utilisé pour valider qu'une AI/ML application produit des résultats précis. Avant d'intégrer les résultats d'Amazon Comprehend Medical dans votre flux de travail LLM, évaluez les performances du service sur un échantillon représentatif de vos données. Comparez les résultats avec des annotations fondées sur la vérité pour identifier les divergences potentielles ou les domaines à améliorer. Cette évaluation vous aide à comprendre les points forts et les limites d'Amazon Comprehend Medical pour votre cas d'utilisation.
+ **Sélectionnez stratégiquement les informations pertinentes** : Amazon Comprehend Medical peut fournir une grande quantité d'informations, mais elles ne sont peut-être pas toutes pertinentes pour votre tâche. Sélectionnez avec soin les entités, les attributs et les métadonnées les plus pertinents pour votre cas d'utilisation. Fournir trop d'informations non pertinentes au LLM peut introduire du bruit et potentiellement réduire les performances.
+ **Aligner les définitions des entités** : assurez-vous que les définitions des entités et des attributs utilisés par Amazon Comprehend Medical correspondent à votre interprétation. En cas de divergence, pensez à fournir un contexte ou des éclaircissements supplémentaires au LLM afin de combler le fossé entre les résultats d'Amazon Comprehend Medical et vos besoins. Si l'entité Amazon Comprehend Medical ne répond pas à vos attentes, vous pouvez implémenter une détection d'entité personnalisée en incluant des instructions supplémentaires (et des exemples possibles) dans l'invite.
+ **Fournissez des connaissances spécifiques à un domaine** — Amazon Comprehend Medical fournit des informations médicales précieuses, mais il se peut qu'il ne capture pas toutes les nuances de votre domaine spécifique. Envisagez de compléter les résultats d'Amazon Comprehend Medical par des sources de connaissances supplémentaires spécifiques au domaine, telles que des ontologies, des terminologies ou des ensembles de données sélectionnés par des experts. Cela fournit un contexte plus complet au LLM.
+ **Respectez les directives éthiques et réglementaires** — Lorsque vous traitez des données médicales, il est important de respecter les principes éthiques et les directives réglementaires, tels que ceux liés à la confidentialité des données, à la sécurité et à l'utilisation responsable des systèmes d'IA dans les soins de santé. Assurez-vous que votre mise en œuvre est conforme aux lois applicables et aux meilleures pratiques du secteur.

En suivant ces meilleures pratiques, les AI/ML praticiens peuvent utiliser efficacement les points forts d'Amazon Comprehend Medical LLMs et de. Pour les tâches de PNL médicale, ces meilleures pratiques permettent d'atténuer les risques potentiels et d'améliorer les performances.

## Ingénierie rapide pour le contexte Amazon Comprehend Medical
<a name="comprehend-medical-rag-prompt-engineering"></a>

L'[ingénierie rapide](https://aws.amazon.com/what-is/prompt-engineering/) est le processus qui consiste à concevoir et à affiner des instructions pour guider une solution d'IA générative afin de générer les résultats souhaités. Vous choisissez les formats, les phrases, les mots et les symboles les plus appropriés pour aider l'IA à interagir avec vos utilisateurs de manière plus significative.

En fonction de l'opération d'API que vous effectuez, Amazon Comprehend Medical renvoie les entités détectées, les codes et descriptions d'ontologie, ainsi que les scores de confiance. Ces résultats deviennent contextuels dans l'invite lorsque votre solution invoque le LLM cible. Vous devez concevoir l'invite de manière à présenter le contexte dans le modèle d'invite.

**Note**  
Les exemples d'instructions de cette section suivent les directives d'[Anthropic](https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/overview). Si vous utilisez un autre fournisseur de LLM, suivez les recommandations de ce fournisseur.

En général, vous insérez à la fois le texte médical d'origine et les résultats d'Amazon Comprehend Medical dans l'invite. Voici une structure d'invite courante :

```
<medical_text>
medical text
</medical_text>

<comprehend_medical_text_results>
comprehend medical text results
</comprehend_medical_text_results>

<prompt_instructions>
prompt instructions
</prompt_instructions>
```

Cette section fournit des stratégies pour inclure les résultats d'Amazon Comprehend Medical comme contexte rapide pour les tâches de PNL médicale courantes suivantes :
+ [Filtrer les résultats d'Amazon Comprehend Medical](#prompt-engineering-filter-results)
+ [Étendez les tâches de PNL médicale avec Amazon Comprehend Medical](#prompt-engineering-extend-nlp)
+ [Appliquez des garde-corps avec Amazon Comprehend Medical](#prompt-engineering-guardrails)

### Filtrer les résultats d'Amazon Comprehend Medical
<a name="prompt-engineering-filter-results"></a>

Amazon Comprehend Medical fournit généralement une grande quantité d'informations. Vous souhaiterez peut-être réduire le nombre de résultats que le professionnel de santé doit examiner. Dans ce cas, vous pouvez utiliser un LLM pour filtrer ces résultats. Les entités Amazon Comprehend Medical incluent un score de confiance que vous pouvez utiliser comme mécanisme de filtrage lors de la conception de l'invite.

Voici un exemple de note destinée aux patients :

```
Carlie had a seizure 2 weeks ago. She is complaining of frequent headaches
Nausea is also present. She also complains of eye trouble with blurry vision
Meds : Topamax 50 mgs at breakfast daily,
Send referral order to neurologist
Follow-up as scheduled
```

Dans cette note destinée au patient, Amazon Comprehend Medical détecte les entités suivantes.

![\[Détection d'entités dans Amazon Comprehend Medical.\]](http://docs.aws.amazon.com/fr_fr/prescriptive-guidance/latest/generative-ai-nlp-healthcare/images/comprehend-medical-entity-detection.png)


Les entités renvoient aux codes ICD-10-CM suivants pour les crises d'épilepsie et les maux de tête.


| 
| 
| Catégorie | Code ICD-10-CM | Description de l'ICD-10-CM | Score de fiabilité | 
| --- |--- |--- |--- |
| Convulsion | R56,9 | Convulsions non précisées | 0,8348 | 
| Convulsion | G40,909 | Épilepsie, non précisée, non incurable, sans état épileptique | 0,5424 | 
| Convulsion | R56,00 | Convulsions fébriles simples | 0,4937 | 
| Convulsion | G40,09 | Autres crises | 0,4397 | 
| Convulsion | G40,409 | Autres syndromes épileptiques et épileptiques généralisés, non incurables, sans état épileptique | 0,4138 | 
| maux de tête | R51 | maux de tête | 0,4067 | 
| maux de tête | R51,9 | Céphalée, sans précision | 0,3844 | 
| maux de tête | G44,52 | Nouveaux maux de tête persistants quotidiens (NDPH) | 0,3005 | 
| maux de tête | G44 | Autre syndrome de céphalée | 0,2670 | 
| maux de tête | G44,8 | Autres syndromes de céphalée précisés | 0,2542 | 

Vous pouvez transmettre les codes ICD-10-CM à l'invite pour augmenter la précision du LLM. Pour réduire le bruit, vous pouvez filtrer les codes ICD-10-CM en utilisant le score de confiance inclus dans les résultats d'Amazon Comprehend Medical. Voici un exemple d'invite qui inclut uniquement les codes ICD-10-CM dont le score de confiance est supérieur à 0,4 :

```
<patient_note>
Carlie had a seizure 2 weeks ago. She is complaining of frequent headaches
Nausea is also present. She also complains of eye trouble with blurry vision
Meds : Topamax 50 mgs at breakfast daily,
Send referral order to neurologist
Follow-up as scheduled
</patient_note>

<comprehend_medical_results>
<icd-10>
  <entity>
    <text>seizure</text>
    <code>
      <description>Unspecified convulsions</description>
      <code_value>R56.9</code_value>
      <score>0.8347607851028442</score>
    </code>
    <code>
      <description>Epilepsy, unspecified, not intractable, without status epilepticus</description>
      <code_value>G40.909</code_value>
      <score>0.542376697063446</score>
    </code>
    <code>
      <description>Other seizures</description>
      <code_value>G40.89</code_value>
      <score>0.43966275453567505</score>
    </code>
    <code>
      <description>Other generalized epilepsy and epileptic syndromes, not intractable, without status epilepticus</description>
      <code_value>G40.409</code_value>
      <score>0.41382506489753723</score>
    </code>
  </entity>
  <entity>
    <text>headaches</text>
    <code>
      <description>Headache</description>
      <code_value>R51</code_value>
      <score>0.4066613018512726</score>
    </code>
  </entity>
  <entity>
    <text>Nausea</text>
    <code>
      <description>Nausea</description>
      <code_value>R11.0</code_value>
      <score>0.6460834741592407</score>
    </code>
  </entity>
  <entity>
    <text>eye trouble</text>
    <code>
      <description>Unspecified disorder of eye and adnexa</description>
      <code_value>H57.9</code_value>
      <score>0.6780954599380493</score>
    </code>
    <code>
      <description>Unspecified visual disturbance</description>
      <code_value>H53.9</code_value>
      <score>0.5871203541755676</score>
    </code>
    <code>
      <description>Unspecified disorder of binocular vision</description>
      <code_value>H53.30</code_value>
      <score>0.5539672374725342</score>
    </code>
  </entity>
  <entity>
    <text>blurry vision</text>
    <code>
      <description>Other visual disturbances</description>
      <code_value>H53.8</code_value>
      <score>0.9001834392547607</score>
    </code>
  </entity>
</icd-10>
</comprehend_medical_results>

<prompt>
Given the patient note and Amazon Comprehend Medical ICD-10-CM code results above, please select the most relevant ICD-10-CM diagnosis codes for the patient. 
For each selected code, provide a brief explanation of why it is relevant based on the information in the patient note.
</prompt>
```

### Étendez les tâches de PNL médicale avec Amazon Comprehend Medical
<a name="prompt-engineering-extend-nlp"></a>

Lors du traitement de textes médicaux, le contexte d'Amazon Comprehend Medical peut aider le LLM à sélectionner de meilleurs jetons. Dans cet exemple, vous souhaitez associer les symptômes diagnostiques aux médicaments. Vous souhaitez également trouver du texte relatif à des tests médicaux, tels que des termes relatifs à un test sanguin. Vous pouvez utiliser Amazon Comprehend Medical pour détecter les entités et les noms des médicaments. Dans ce cas, vous utiliserez le [DetectEntitiesV2](https://docs.aws.amazon.com/comprehend-medical/latest/dev/textanalysis-entitiesv2.html) et [InferRxNorm](https://docs.aws.amazon.com/comprehend-medical/latest/dev/ontology-RxNorm.html) APIs pour Amazon Comprehend Medical.

Voici un exemple de note destinée aux patients :

```
Carlie had a seizure 2 weeks ago. She is complaining of increased frequent headaches
Given lyme disease symptoms such as muscle ache and stiff neck will order prescription.
Meds : Topamax 50 mgs at breakfast daily. Amoxicillan 25 mg by mouth twice a day
Place MRI radiology order at RadNet
```

Pour vous concentrer sur le code de diagnostic, seules les entités associées au type `MEDICAL_CONDITION` with `DX_NAME` sont utilisées dans l'invite. Les autres métadonnées sont exclues en raison de leur non-pertinence. Pour les entités médicamenteuses, le nom du médicament ainsi que les attributs extraits sont inclus. Les autres métadonnées d'entités médicamenteuses d'Amazon Comprehend Medical sont exclues en raison de leur non-pertinence. Voici un exemple d'invite qui utilise les résultats filtrés d'Amazon Comprehend Medical. L'invite se concentre sur `MEDICAL_CONDITION` les entités qui possèdent ce `DX_NAME` type. Cette invite est conçue pour relier plus précisément les codes de diagnostic aux médicaments et pour extraire plus précisément les tests d'ordonnance médicale :

```
<patient_note>
Carlie had a seizure 2 weeks ago. She is complaining of increased freqeunt headaches
Given lyme disease symptoms such as muscle ache and stiff neck will order prescription. 
Meds : Topamax 50 mgs at breakfast daily. Amoxicillan 25 mg by mouth twice a day
Place MRI radiology order at RadNet
</patient_note>

<detect_entity_results>
<entity>
    <text>seizure</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
<entity>
    <text>headaches</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
<entity>
    <text>lyme disease</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
<entity>
    <text>muscle ache</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
<entity>
    <text>stiff neck</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
</detect_entity_results>

<rx_results>
<entity>
    <text>Topamax</text>
    <category>MEDICATION</category>
    <type>BRAND_NAME</type>
    <attributes>
        <attribute>
            <type>FREQUENCY</type>
            <text>at breakfast daily</text>
        </attribute>
        <attribute>
            <type>DOSAGE</type>
            <text>50 mgs</text>
        </attribute>
        <attribute>
            <type>ROUTE_OR_MODE</type>
            <text>by mouth</text>
        </attribute>
    </attributes>
</entity>
<entity>
    <text>Amoxicillan</text>
    <category>MEDICATION</category>
    <type>GENERIC_NAME</type>
    <attributes>
        <attribute>
            <type>ROUTE_OR_MODE</type>
            <text>by mouth</text>
        </attribute>
        <attribute>
            <type>DOSAGE</type>
            <text>25 mg</text>
        </attribute>
        <attribute>
            <type>FREQUENCY</type>
            <text>twice a day</text>
        </attribute>
    </attributes>
</entity>
</rx_results>

<prompt>
Based on the patient note and the detected entities, can you please:
1. Link the diagnosis symptoms with the medications prescribed. 
Provide your reasoning for the linkages.
2. Extract any entities related to medical order tests mentioned in the note.
</prompt>
```

### Appliquez des garde-corps avec Amazon Comprehend Medical
<a name="prompt-engineering-guardrails"></a>

Vous pouvez utiliser un LLM et Amazon Comprehend Medical pour créer des barrières de sécurité avant que la réponse générée ne soit utilisée. Vous pouvez exécuter ce flux de travail sur du texte médical non modifié ou post-traité. Les cas d'utilisation incluent le traitement des informations de santé protégées (PHI), la détection d'hallucinations ou la mise en œuvre de politiques personnalisées pour la publication des résultats. Par exemple, vous pouvez utiliser le contexte d'Amazon Comprehend Medical pour identifier les données PHI, puis utiliser le LLM pour supprimer ces données PHI.

Voici un exemple d'informations extraites du dossier d'un patient contenant des informations médicales médicales :

```
Patient name: John Doe
Patient SSN: 123-34-5678
Patient DOB: 01/01/2024
Patient address: 123 Main St, Anytown USA
Exam details: good health. Pulse is 60 bpm. needs to work on diet with BMI of 190
```

Voici un exemple d'invite qui inclut les résultats d'Amazon Comprehend Medical comme contexte :

```
<original_text>
Patient name: John Doe
Patient SSN: 123-34-5678 Patient DOB: 01/01/2024
Patient address: 123 Main St, Anytown USA
Exam details: good health. Pulse is 60 bpm. needs to work on diet with BMI of 190
</original_text>

<comprehend_medical_phi_entities>
<entity>
  <text>John Doe</text>
  <category>PROTECTED_HEALTH_INFORMATION</category>
  <score>0.9967944025993347</score>
  <type>NAME</type>
</entity>
<entity>
  <text>123-34-5678</text>
  <category>PROTECTED_HEALTH_INFORMATION</category>
  <score>0.9998034834861755</score>
  <type>ID</type>
</entity>
<entity>
  <text>01/01/2000</text>
  <category>PROTECTED_HEALTH_INFORMATION</category>
  <score>0.9964448809623718</score>
  <type>DATE</type>
</entity>
</comprehend_medical_phi_entities>

<instructions>
Using the provided original text and the Amazon Comprehend Medical PHI entities detected, please analyze the text to determine if it contains any additional protected health information (PHI) beyond the entities already identified. If additional PHI is found, please list and categorize it. If no additional PHI is found, please state that explicitly.
In addition if PHI is found, generate updated text with the PHI removed. 
</instructions>
```

# Utilisation de grands modèles linguistiques pour les cas d'utilisation dans le domaine de la santé et des sciences de la vie
<a name="llms"></a>

Cela décrit comment vous pouvez utiliser de grands modèles linguistiques (LLMs) pour les applications de santé et des sciences de la vie. Certains cas d'utilisation nécessitent l'utilisation d'un modèle de langage étendu pour les fonctionnalités génératives de l'IA. Il y a des avantages et des limites, même pour le plus state-of-the-art LLMs grand nombre, et les recommandations de cette section sont conçues pour vous aider à atteindre les résultats que vous vous êtes fixés.

Vous pouvez utiliser le chemin de décision pour déterminer la solution LLM adaptée à votre cas d'utilisation, en tenant compte de facteurs tels que la connaissance du domaine et les données de formation disponibles. De plus, cette section traite des pratiques médicales préformées populaires LLMs et des meilleures pratiques pour leur sélection et leur utilisation. Il aborde également les compromis entre des solutions complexes et performantes et des approches plus simples et moins coûteuses.

## Cas d'utilisation d'un LLM
<a name="llm-use-cases"></a>

Amazon Comprehend Medical peut effectuer des tâches de PNL spécifiques. Pour de plus amples informations, veuillez consulter [Cas d'utilisation d'Amazon Comprehend Medical](comprehend-medical.md#comprehend-medical-use-cases).

Les capacités d'IA logiques et génératives d'un LLM peuvent être requises pour les cas d'utilisation avancés dans le domaine des soins de santé et des sciences de la vie, tels que les suivants :
+ Classification d'entités médicales personnalisées ou de catégories de texte
+ Répondre aux questions cliniques
+ Synthèse des rapports médicaux
+ Génération et détection d'informations à partir d'informations médicales

## Approches de personnalisation
<a name="llm-customization"></a>

Il est essentiel de comprendre comment LLMs sont mises en œuvre. LLMs sont généralement entraînés avec des milliards de paramètres, y compris des données d'entraînement provenant de nombreux domaines. Cette formation permet au LLM d'aborder les tâches les plus générales. Cependant, des défis se présentent souvent lorsque des connaissances spécifiques à un domaine sont requises. Les codes cliniques, la terminologie médicale et les informations de santé nécessaires pour générer des réponses précises sont des exemples de connaissances dans le domaine des soins de santé et des sciences de la vie. Par conséquent, l'utilisation du LLM tel quel (invite zéro sans complément de connaissance du domaine) pour ces cas d'utilisation entraîne probablement des résultats inexacts. Il existe plusieurs approches populaires que vous pouvez utiliser pour surmonter ce défi : l'ingénierie rapide, la génération augmentée par récupération (RAG) et le réglage fin.

### Ingénierie rapide
<a name="llm-customization-prompt-engineering"></a>

L'*ingénierie rapide* est le processus par lequel vous orientez les solutions d'IA générative pour créer les sorties souhaitées en ajustant les entrées du LLM. En élaborant des instructions précises avec un contexte pertinent, il est possible d'orienter le modèle vers l'exécution de tâches de santé spécialisées qui nécessitent un raisonnement. Une ingénierie rapide et efficace peut améliorer de manière significative les performances des modèles pour les cas d'utilisation dans le secteur de la santé sans nécessiter de modifications du modèle. Pour plus d'informations sur l'ingénierie rapide, consultez [Implémentation de l'ingénierie rapide avancée avec Amazon Bedrock](https://aws.amazon.com/blogs/machine-learning/implementing-advanced-prompt-engineering-with-amazon-bedrock/) (article de AWS blog). Les instructions en quelques étapes sont des techniques que vous pouvez utiliser dans le cadre de l'ingénierie chain-of-thought rapide.

#### Invites avec peu d’exemples
<a name="few-shot-prompting"></a>

L'invite instantanée est une technique dans laquelle vous fournissez au LLM quelques exemples des entrées-sorties souhaitées avant de lui demander d'effectuer une tâche similaire. Dans les contextes de soins de santé, cette approche est particulièrement utile pour les tâches spécialisées, telles que la reconnaissance d'entités médicales ou la synthèse de notes cliniques. En incluant 3 à 5 exemples de haute qualité dans votre message, vous pouvez améliorer de manière significative la compréhension par le modèle de la terminologie médicale et des modèles spécifiques à un domaine. Pour un exemple d'invite ponctuelle, consultez l'article de blog consacré à l'[ingénierie et à la mise au point de quelques commandes dans LLMs Amazon Bedrock](https://aws.amazon.com/blogs/machine-learning/few-shot-prompt-engineering-and-fine-tuning-for-llms-in-amazon-bedrock/).AWS 

Par exemple, lorsque vous extrayez des doses de médicaments à partir de notes cliniques, vous pouvez fournir des exemples de différents styles de notation qui aident le modèle à reconnaître les variations dans la façon dont les professionnels de santé documentent les prescriptions. Cette approche est particulièrement efficace lorsque vous travaillez avec des formats de documentation standardisés ou lorsque des modèles cohérents existent dans les données.

#### Chain-of-thought incitant
<a name="chain-of-thought-prompting"></a>

Chain-of-thought L'*invite (CoT) guide* le LLM dans un processus de step-by-step raisonnement. Cela le rend utile pour les tâches complexes d'aide à la décision médicale et de raisonnement diagnostique. En demandant explicitement au modèle de « réfléchir étape par étape » lors de l'analyse de scénarios cliniques, vous pouvez améliorer sa capacité à suivre les protocoles de raisonnement médical et à réduire les erreurs de diagnostic.

Cette technique excelle lorsque le raisonnement clinique nécessite plusieurs étapes logiques, telles que le diagnostic différentiel ou la planification du traitement. Cependant, cette approche présente des limites lorsqu'il s'agit de connaissances médicales hautement spécialisées autres que les données d'entraînement du modèle ou lorsqu'une précision absolue est requise pour prendre des décisions en matière de soins intensifs.

Dans ces cas, la combinaison du CoT avec une autre approche peut donner de meilleurs résultats. L'une des options consiste à combiner le CoT avec des instructions d'auto-cohérence. Pour plus d'informations, consultez [Améliorer les performances des modèles de langage génératifs grâce à des instructions d'auto-cohérence sur Amazon Bedrock](https://aws.amazon.com/blogs/machine-learning/enhance-performance-of-generative-language-models-with-self-consistency-prompting-on-amazon-bedrock/) (AWS article de blog). Une autre option consiste à combiner des cadres de raisonnement, tels que l' ReAct invite, avec RAG. Pour plus d'informations, voir [Développer des assistants avancés basés sur le chat basé sur l'IA générative à l'aide de RAG et d' ReActinstructions (directives prescriptives](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/develop-advanced-generative-ai-chat-based-assistants-by-using-rag-and-react-prompting.html))AWS .

### Génération à enrichissement contextuel (RAG)
<a name="llm-customization-rag"></a>

*La génération augmentée de récupération (RAG)* est une technologie d'IA générative dans laquelle un LLM fait référence à une source de données faisant autorité qui se trouve en dehors de ses sources de données de formation avant de générer une réponse. Un système RAG peut récupérer des informations d'ontologie médicale (telles que les classifications internationales des maladies, les fichiers nationaux sur les médicaments et les rubriques des sujets médicaux) à partir d'une source de connaissances. Cela fournit un contexte supplémentaire au LLM pour soutenir la tâche de PNL médicale.

Comme indiqué dans la [Combiner Amazon Comprehend Medical avec de grands modèles linguistiques](comprehend-medical-rag.md) section, vous pouvez utiliser une approche RAG pour récupérer le contexte d'Amazon Comprehend Medical. Les autres sources de connaissances courantes incluent les données du domaine médical stockées dans un service de base de données, tel qu'Amazon OpenSearch Service, Amazon Kendra ou Amazon Aurora. L'extraction d'informations à partir de ces sources de connaissances peut affecter les performances de récupération, en particulier dans le cas de requêtes sémantiques utilisant une base de données vectorielle.

Une autre option pour stocker et récupérer des connaissances spécifiques à un domaine consiste à utiliser [Amazon Q Business](https://docs.aws.amazon.com/amazonq/latest/qbusiness-ug/what-is.html) dans votre flux de travail RAG. Amazon Q Business peut indexer des référentiels de documents internes ou des sites Web destinés au public (tels que [CMS.gov](https://cms.gov/) pour les données ICD-10). Amazon Q Business peut ensuite extraire les informations pertinentes de ces sources avant de transmettre votre requête au LLM.

Il existe plusieurs manières de créer un flux de travail RAG personnalisé. Par exemple, il existe de nombreuses manières de récupérer des données à partir d'une source de connaissances. Pour des raisons de simplicité, nous recommandons l'approche de récupération courante qui consiste à utiliser une base de données vectorielle, telle qu'Amazon OpenSearch Service, pour stocker les connaissances sous forme d'intégrations. Cela nécessite que vous utilisiez un modèle d'intégration, tel qu'un transformateur de phrases, pour générer des intégrations pour la requête et pour les connaissances stockées dans la base de données vectorielle.

Pour plus d'informations sur les approches RAG entièrement gérées et personnalisées, consultez la section [Options et architectures de génération augmentée de récupération](https://docs.aws.amazon.com/prescriptive-guidance/latest/retrieval-augmented-generation-options/introduction.html) sur. AWS

### Peaufinage
<a name="llm-customization-fine-tuning"></a>

Pour *peaufiner* un modèle existant, il faut passer un LLM, tel qu'un modèle Amazon Titan, Mistral ou Llama, puis adapter le modèle à vos données personnalisées. Il existe différentes techniques de réglage précis, dont la plupart impliquent de ne modifier que quelques paramètres au lieu de modifier tous les paramètres du modèle. C'est ce qu'on appelle le *réglage fin efficace par paramètres* (PEFT). Pour plus d'informations, voir [Hugging Face](https://github.com/huggingface/peft) GitHub PEFT activé.

Voici deux cas d'utilisation courants dans lesquels vous pouvez choisir d'affiner un LLM pour une tâche de PNL médicale :
+ **Tâche générative** — Les modèles basés sur le décodeur exécutent des tâches d'IA génératives. AI/ML les praticiens utilisent des données de base pour affiner un LLM existant. Par exemple, vous pouvez former le LLM en utilisant [MedQuAD](https://github.com/abachaa/MedQuAD), un ensemble de données public de réponses aux questions médicales. Lorsque vous appelez une requête au LLM affiné, vous n'avez pas besoin d'une approche RAG pour fournir le contexte supplémentaire au LLM.
+ **Embeddings — Les** modèles basés sur des encodeurs génèrent des intégrations en transformant le texte en vecteurs numériques. Ces modèles basés sur des codeurs sont généralement appelés modèles *d'intégration*. Un *modèle de transformateur de phrases* est un type spécifique de modèle d'intégration optimisé pour les phrases. L'objectif est de générer des intégrations à partir du texte saisi. Les intégrations sont ensuite utilisées pour l'analyse sémantique ou pour des tâches de récupération. Pour affiner le modèle d'intégration, vous devez disposer d'un corpus de connaissances médicales, tels que des documents, que vous pouvez utiliser comme données de formation. Pour ce faire, des paires de texte basées sur la similitude ou le sentiment sont utilisées pour affiner un modèle de transformation de phrases. Pour plus d'informations, voir [Entraînement et optimisation des modèles d'intégration avec Sentence Transformers v3 sur Hugging Face](https://huggingface.co/blog/train-sentence-transformers).

Vous pouvez utiliser [Amazon SageMaker Ground Truth](https://docs.aws.amazon.com/sagemaker/latest/dg/sms.html) pour créer un ensemble de données de formation labellisé de haute qualité. Vous pouvez utiliser le jeu de données étiquetées généré par Ground Truth pour entraîner vos propres modèles. Vous pouvez également utiliser le résultat comme jeu de données d'entraînement pour un modèle Amazon SageMaker AI. Pour plus d'informations sur la reconnaissance des entités nommées, la classification du texte à étiquette unique et la classification du texte à étiquettes multiples, consultez la section [Étiquetage de texte avec Ground Truth](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-label-text.html) dans la documentation Amazon SageMaker AI.

Pour plus d'informations sur le réglage précis, consultez [Ajustement de grands modèles linguistiques dans le secteur de la santé](fine-tuning.md) ce guide.

## Choisir un LLM
<a name="llm-selection"></a>

[Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/what-is-bedrock.html) est le point de départ recommandé pour évaluer les performances élevées LLMs. Pour plus d'informations, consultez la section [Modèles de fondation pris en charge dans Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/models-supported.html). Vous pouvez utiliser des tâches d'évaluation de modèles dans Amazon Bedrock afin de comparer les résultats de plusieurs sorties, puis de choisir le modèle le mieux adapté à votre cas d'utilisation. Pour plus d'informations, consultez [Choisir le modèle le plus performant à l'aide des évaluations Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/model-evaluation.html) dans la documentation Amazon Bedrock.

Certains LLMs ont une formation limitée sur les données du domaine médical. [Si votre cas d'utilisation nécessite de peaufiner un LLM ou un LLM qu'Amazon Bedrock ne prend pas en charge, pensez à utiliser Amazon AI. SageMaker ](https://docs.aws.amazon.com/sagemaker/latest/dg/whatis.html) En SageMaker IA, vous pouvez utiliser un LLM affiné ou choisir un LLM personnalisé qui a été formé sur les données du domaine médical.

Le tableau suivant répertorie les personnes les plus populaires LLMs qui ont été formées sur les données du domaine médical.


| 
| 
| LLM | Tâches | Connaissances | Architecture | 
| --- |--- |--- |--- |
| [BioBert](https://github.com/dmis-lab/biobert) | Récupération d'informations, classification de texte et reconnaissance d'entités nommées | Résumés PubMed, articles en texte intégral et connaissances PubMedCentral générales sur le domaine | Encodeur | 
| [Clinique Albert](https://github.com/kexinhuang12345/clinicalBERT) | Récupération d'informations, classification de texte et reconnaissance d'entités nommées | Vaste ensemble de données multicentrique ainsi que plus de 3 000 000 de dossiers patients issus de systèmes de dossiers médicaux électroniques (DSE) | Encodeur | 
| [GPT clinique](https://huggingface.co/medicalai/ClinicalGPT-base-zh) | Récapitulatif, réponse aux questions et génération de texte | Des ensembles de données médicaux étendus et variés, y compris des dossiers médicaux, des connaissances spécifiques à un domaine et des consultations de dialogue à plusieurs niveaux | Décodeur | 
| [GatorTron-OG](https://catalog.ngc.nvidia.com/orgs/nvidia/teams/clara/models/gatortron_og) | Synthèse, réponse aux questions, génération de texte et recherche d'informations | Notes cliniques et littérature biomédicale | Encodeur | 
| [Med-Bert](https://github.com/ZhiGroup/Med-BERT) | Récupération d'informations, classification de texte et reconnaissance d'entités nommées | Vaste ensemble de données de textes médicaux, de notes cliniques, de documents de recherche et de documents liés aux soins de santé | Encodeur | 
| [Med-Palm](https://sites.research.google/med-palm/) | Réponse à des questions à des fins médicales | Ensembles de données de textes médicaux et biomédicaux | Décodeur | 
| [Alpaga médaillé](https://github.com/kbressem/medAlpaca) | Tâches de réponse aux questions et de dialogue médical | Une variété de textes médicaux, comprenant des ressources telles que des flashcards médicaux, des wikis et des ensembles de données de dialogue | Décodeur | 
| [BioMedbert](https://huggingface.co/microsoft/BiomedNLP-BiomedBERT-base-uncased-abstract-fulltext) | Récupération d'informations, classification de texte et reconnaissance d'entités nommées | Exclusivement des résumés PubMed et des articles en texte intégral de PubMedCentral | Encodeur | 
| [BioMedLM](https://github.com/stanford-crfm/BioMedLM) | Récapitulatif, réponse aux questions et génération de texte | Littérature biomédicale issue de sources de PubMed connaissances | Décodeur | 

Voici les meilleures pratiques en matière d'utilisation de médecins LLMs préformés :
+ Comprenez les données d'entraînement et leur pertinence pour votre tâche de PNL médicale.
+ Identifiez l'architecture LLM et son objectif. Les encodeurs sont appropriés pour les intégrations et les tâches NLP. Les décodeurs sont destinés aux tâches de génération.
+ Évaluez les exigences en matière d'infrastructure, de performance et de coûts pour l'hébergement du LLM médical préformé.
+ Si un ajustement précis est nécessaire, assurez-vous que les données d'entraînement sont exactes sur le terrain ou que vous connaissez bien le terrain. Assurez-vous de masquer ou de supprimer les informations personnelles identifiables (PII) ou les informations de santé protégées (PHI).

Les tâches de PNL médicale dans le monde réel peuvent différer de celles d'une personne préformée LLMs en termes de connaissances ou de cas d'utilisation prévus. Si un LLM spécifique à un domaine ne répond pas à vos critères d'évaluation, vous pouvez affiner un LLM avec votre propre ensemble de données ou vous pouvez créer un nouveau modèle de base. La formation d'un nouveau modèle de base est une entreprise ambitieuse et souvent coûteuse. Dans la plupart des cas d'utilisation, nous recommandons de peaufiner un modèle existant.

Lorsque vous utilisez ou peaufinez un LLM médical préformé, il est important de prendre en compte l'infrastructure, la sécurité et les garde-corps.

### Infrastructures
<a name="llm-selection-infrastructure"></a>

Par rapport à l'utilisation d'Amazon Bedrock pour l'inférence à la demande ou par lots, l'hébergement de LLM médicaux préformés (généralement issus de Hugging Face) nécessite des ressources importantes. Pour héberger des LLM médicaux préformés, il est courant d'utiliser une image Amazon SageMaker AI qui s'exécute sur une instance Amazon Elastic Compute Cloud (Amazon EC2) avec une ou GPUs plusieurs instances, telles que des instances ml.g5 pour le calcul accéléré ou des instances ml.inf2 pour. AWS Inferentia Cela est dû au fait qu'ils LLMs consomment une grande quantité de mémoire et d'espace disque.

### Sécurité et garde-corps
<a name="llm-selection-guardrails"></a>

En fonction des exigences de conformité de votre entreprise, pensez à utiliser Amazon Comprehend et Amazon Comprehend Medical pour masquer ou supprimer les informations personnelles identifiables (PII) et les informations de santé protégées (PHI) des données de formation. Cela permet d'empêcher le LLM d'utiliser des données confidentielles lorsqu'il génère des réponses.

Nous vous recommandons de prendre en compte et d'évaluer les biais, l'équité et les hallucinations dans vos applications d'IA générative. Que vous utilisiez un LLM préexistant ou que vous le peaufiniez, mettez en place des garde-fous pour empêcher les réponses préjudiciables. Les *garde-fous sont des* mesures de protection que vous personnalisez en fonction des exigences de vos applications d'IA générative et de vos politiques responsables en matière d'IA. Par exemple, vous pouvez utiliser [Amazon Bedrock Guardrails](https://docs.aws.amazon.com/bedrock/latest/userguide/guardrails.html).

# Ajustement de grands modèles linguistiques dans le secteur de la santé
<a name="fine-tuning"></a>

L'approche d'optimisation décrite dans cette section soutient le respect des directives éthiques et réglementaires et promeut l'utilisation responsable des systèmes d'IA dans les soins de santé. Il est conçu pour générer des informations précises et confidentielles. L'IA générative révolutionne la prestation des soins de santé, mais les off-the-shelf modèles sont souvent insuffisants dans les environnements cliniques où la précision est essentielle et où la conformité n'est pas négociable. L'affinement des modèles de base à l'aide de données spécifiques au domaine comble cette lacune. Il vous aide à créer des systèmes d'IA qui parlent le langage de la médecine tout en respectant des normes réglementaires strictes. Cependant, pour réussir un ajustement précis, il faut relever avec soin les défis uniques des soins de santé : protéger les données sensibles, justifier les investissements dans l'IA par des résultats mesurables et maintenir la pertinence clinique dans des environnements médicaux en évolution rapide.

Lorsque les approches plus légères atteignent leurs limites, le peaufinage devient un investissement stratégique. On s'attend à ce que les gains de précision, de latence ou d'efficacité opérationnelle compensent les coûts de calcul et d'ingénierie importants nécessaires. Il est important de se rappeler que le rythme de progression des modèles de base est rapide, de sorte que l'avantage d'un modèle affiné peut ne durer que jusqu'à la prochaine sortie majeure du modèle.

Cette section ancre la discussion dans les deux cas d'utilisation à fort impact suivants, réalisés par des clients du AWS secteur de la santé :
+ **Systèmes d'aide à la décision clinique** — Améliorez la précision des diagnostics grâce à des modèles qui comprennent les antécédents complexes des patients et l'évolution des directives. Un ajustement précis peut aider les modèles à comprendre en profondeur les antécédents complexes des patients et à intégrer des directives spécialisées, ce qui peut potentiellement réduire les erreurs de prédiction des modèles. Cependant, vous devez évaluer ces gains par rapport au coût de la formation sur de grands ensembles de données sensibles et à l'infrastructure requise pour les applications cliniques à enjeux élevés. L'amélioration de la précision et de la connaissance du contexte justifiera-t-elle l'investissement, en particulier lorsque de nouveaux modèles sont publiés fréquemment ?
+ **Analyse des documents médicaux** — Automatisez le traitement des notes cliniques, des rapports d'imagerie et des documents d'assurance tout en respectant la loi HIPAA (Health Insurance Portability and Accountability Act). Dans ce cas, un ajustement précis peut permettre au modèle de gérer plus efficacement les formats uniques, les abréviations spécialisées et les exigences réglementaires. Les avantages se traduisent souvent par une réduction du temps de révision manuelle et une meilleure conformité. Néanmoins, il est essentiel d'évaluer si ces améliorations sont suffisamment importantes pour justifier le réglage précis des ressources. Déterminez si une ingénierie et une orchestration rapides des flux de travail peuvent répondre à vos besoins.

Ces scénarios concrets illustrent le processus de mise au point, de l'expérimentation initiale au déploiement du modèle, tout en répondant aux exigences uniques des soins de santé à chaque étape.

## Estimation des coûts et du retour sur investissement
<a name="fine-tuning-costs"></a>

Les facteurs de coût suivants doivent être pris en compte lors de la mise au point d'un LLM :
+ **Taille du modèle** — Les modèles plus grands coûtent plus cher à peaufiner
+ **Taille du jeu** de données — Les coûts et le temps de calcul augmentent avec la taille du jeu de données pour un ajustement précis
+ **Stratégie de réglage précis** — Les méthodes efficaces en termes de paramètres peuvent réduire les coûts par rapport aux mises à jour complètes des paramètres

Lorsque vous calculez le retour sur investissement (ROI), considérez l'amélioration des indicateurs que vous avez choisis (tels que la précision) multipliée par le volume de demandes (fréquence d'utilisation du modèle) et la durée attendue avant que le modèle ne soit dépassé par les nouvelles versions.

Tenez également compte de la durée de vie de votre LLM de base. De nouveaux modèles de base apparaissent tous les 6 à 12 mois. S'il faut 8 mois pour peaufiner et valider votre détecteur de maladies rares, il se peut que vous n'obteniez que 4 mois de performances supérieures avant que les nouveaux modèles ne comblent l'écart.

En calculant les coûts, le retour sur investissement et la durée de vie potentielle de votre cas d'utilisation, vous pouvez prendre une décision basée sur les données. Par exemple, si le peaufinage de votre modèle d'aide à la décision clinique entraîne une réduction mesurable des erreurs de diagnostic dans des milliers de cas par an, l'investissement pourrait rapidement porter ses fruits. À l'inverse, si une ingénierie rapide permet à elle seule de rapprocher votre flux de travail d'analyse de documents de la précision cible, il peut être judicieux de ne pas peaufiner les réglages jusqu'à l'arrivée de la prochaine génération de modèles.

Le réglage fin ne l'est pas one-size-fits-all. Si vous décidez de peaufiner, la bonne approche dépend de votre cas d'utilisation, de vos données et de vos ressources.

## Choisir une stratégie de réglage précis
<a name="fine-tuning-strategy"></a>

Une fois que vous avez déterminé que le réglage précis est la bonne approche pour votre cas d'utilisation dans le secteur de la santé, l'étape suivante consiste à sélectionner la stratégie d'ajustement la plus appropriée. Plusieurs approches sont disponibles. Chacune présente des avantages et des inconvénients distincts pour les applications de santé. Le choix entre ces méthodes dépend de vos objectifs spécifiques, des données disponibles et des contraintes en matière de ressources.

### Objectifs de formation
<a name="fine-tuning-strategy-training-objectives"></a>

Le [pré-entraînement adaptatif au domaine (DAPT)](https://arxiv.org/abs/2504.09687) est une méthode non supervisée qui consiste à pré-entraîner le modèle sur un grand nombre de textes non étiquetés spécifiques au domaine (tels que des millions de documents médicaux). Cette approche convient parfaitement pour améliorer la capacité des modèles à comprendre les abréviations des spécialités médicales et la terminologie utilisée par les radiologues, les neurologues et les autres prestataires spécialisés. Cependant, DAPT nécessite de grandes quantités de données et ne traite pas de résultats de tâches spécifiques.

[Le réglage fin supervisé (SFT)](https://arxiv.org/abs/2506.14681) apprend au modèle à suivre des instructions explicites en utilisant des exemples d'entrées-sorties structurés. Cette approche excelle pour les flux de travail d'analyse de documents médicaux, tels que le résumé de documents ou le codage clinique. *Le réglage des instructions* est une forme courante de SFT dans laquelle le modèle est entraîné sur des exemples qui incluent des instructions explicites associées aux sorties souhaitées. Cela améliore la capacité du modèle à comprendre et à suivre les diverses instructions des utilisateurs. Cette technique est particulièrement utile dans les établissements de santé car elle entraîne le modèle à l'aide d'exemples cliniques spécifiques. Le principal inconvénient est qu'il nécessite des exemples soigneusement étiquetés. En outre, le modèle affiné peut avoir du mal à traiter les cas extrêmes où il n'y a pas d'exemples. Pour obtenir des instructions sur le réglage précis avec Amazon SageMaker Jumpstart, consultez la section [Instructions de réglage du FLAN T5 XL avec Amazon SageMaker ](https://aws.amazon.com/blogs/machine-learning/instruction-fine-tuning-for-flan-t5-xl-with-amazon-sagemaker-jumpstart/) Jumpstart (article de blog).AWS 

[L'apprentissage par renforcement basé sur le feedback humain (RLHF)](https://aws.amazon.com/what-is/reinforcement-learning-from-human-feedback/) optimise le comportement du modèle en fonction des commentaires et des préférences des experts. Utilisez un modèle de récompense basé sur les préférences et méthodes humaines, telles que l'optimisation des [politiques proximales (PPO) ou l'optimisation](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune-hyperpod-ppo.html) [des préférences directes (DPO)](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune-hyperpod-dpo.html), pour optimiser le modèle tout en empêchant les mises à jour destructives. Le RLHF est idéal pour aligner les résultats sur les directives cliniques et s'assurer que les recommandations respectent les protocoles approuvés. Cette approche demande beaucoup de temps aux cliniciens pour obtenir des commentaires et implique un pipeline de formation complexe. Cependant, le RLHF est particulièrement utile dans le domaine de la santé car il aide les experts médicaux à façonner la manière dont les systèmes d'IA communiquent et font des recommandations. Par exemple, les cliniciens peuvent fournir des commentaires pour s'assurer que le modèle fonctionne correctement au chevet du patient, qu'il sait quand exprimer son incertitude et qu'il respecte les directives cliniques. Des techniques telles que le PPO optimisent de manière itérative le comportement du modèle en fonction des commentaires des experts tout en limitant les mises à jour des paramètres afin de préserver les connaissances médicales de base. Cela permet aux modèles de transmettre des diagnostics complexes dans un langage convivial pour le patient tout en signalant les affections graves nécessitant une prise en charge médicale immédiate. Cela est crucial pour les soins de santé où la précision et le style de communication sont importants. Pour plus d'informations sur le RLHF, voir [Affiner les grands modèles linguistiques grâce à l'apprentissage par renforcement à partir de commentaires humains ou basés sur l'IA](https://aws.amazon.com/blogs/machine-learning/fine-tune-large-language-models-with-reinforcement-learning-from-human-or-ai-feedback/) (article de AWS blog).

### Méthodes de mise en œuvre
<a name="fine-tuning-strategy-implementation"></a>

Une mise à jour *complète des paramètres implique la mise* à jour de tous les paramètres du modèle pendant l'entraînement. Cette approche fonctionne mieux pour les systèmes d'aide à la décision clinique qui nécessitent une intégration approfondie des antécédents des patients, des résultats de laboratoire et des directives évolutives. Les inconvénients incluent le coût de calcul élevé et le risque de surajustement si votre ensemble de données n'est pas volumineux et diversifié.

[Les méthodes de réglage fin efficaces (PEFT)](https://arxiv.org/abs/2312.12148) mettent à jour uniquement un sous-ensemble de paramètres afin d'éviter un surajustement ou une perte catastrophique des capacités linguistiques. Les types incluent [l'adaptation de bas rang (LoRa)](https://arxiv.org/abs/2106.09685), les adaptateurs et le réglage des préfixes. Les méthodes PEFT permettent de réduire les coûts de calcul, d'accélérer la formation et sont idéales pour les expériences telles que l'adaptation d'un modèle d'aide à la décision clinique aux protocoles ou à la terminologie d'un nouvel hôpital. La principale limite est la réduction potentielle des performances par rapport aux mises à jour complètes des paramètres.

Pour plus d'informations sur les méthodes de réglage précis, consultez [Méthodes de réglage avancées sur Amazon SageMaker AI](https://aws.amazon.com/blogs/machine-learning/advanced-fine-tuning-methods-on-amazon-sagemaker-ai/) (article de AWS blog).

## Création d'un ensemble de données affiné
<a name="fine-tuning-dataset"></a>

La qualité et la diversité de l'ensemble de données de réglage fin sont essentielles pour les performances, la sécurité et la prévention des biais du modèle. Les trois domaines critiques suivants doivent être pris en compte lors de la création de cet ensemble de données :
+ Volume basé sur une approche de réglage précis
+ Annotation des données par un expert du domaine
+ Diversité de l'ensemble de données

Comme le montre le tableau suivant, les exigences relatives à la taille du jeu de données pour le réglage précis varient en fonction du type de réglage précis effectué.


| 
| 
| **Stratégie de réglage précis** | **Taille du jeu de données** | 
| --- |--- |
| Pré-formation adaptée au domaine | Plus de 100 000 textes de domaine | 
| Réglage précis supervisé | Plus de 10 000 paires étiquetées | 
| Apprentissage par renforcement à partir du feedback humain | Plus de 1 000 paires de préférences d'experts | 

Vous pouvez utiliser [AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/what-is-glue.html)[Amazon EMR et Amazon SageMaker ](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-what-is-emr.html) [Data Wrangler](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler.html) pour automatiser le processus d'extraction et de transformation des données afin de créer un ensemble de données dont vous êtes le propriétaire. Si vous ne parvenez pas à créer un ensemble de données suffisamment volumineux, vous pouvez découvrir et télécharger des ensembles de données directement dans votre Compte AWS canal. [AWS Data Exchange](https://docs.aws.amazon.com/data-exchange/latest/userguide/what-is.html) Consultez votre conseiller juridique avant d'utiliser des ensembles de données tiers.

Des annotateurs experts ayant une connaissance du domaine, tels que les médecins, les biologistes et les chimistes, devraient participer au processus de curation des données afin d'intégrer les nuances des données médicales et biologiques dans les résultats du modèle. [Amazon SageMaker Ground Truth](https://docs.aws.amazon.com/sagemaker/latest/dg/sms.html) fournit une interface utilisateur low-code permettant aux experts d'annoter l'ensemble de données.

Un ensemble de données représentant la population humaine est essentiel pour que les soins de santé et les sciences de la vie puissent affiner les cas d'utilisation afin d'éviter les biais et de refléter les résultats du monde réel.AWS Glue les [sessions interactives](https://docs.aws.amazon.com/glue/latest/dg/interactive-sessions-chapter.html) ou les [instances de SageMaker blocs-notes Amazon](https://docs.aws.amazon.com/sagemaker/latest/dg/nbi.html) constituent un moyen puissant d'explorer de manière itérative des ensembles de données et d'affiner les transformations à l'aide de blocs-notes compatibles avec Jupyter. Les sessions interactives vous permettent de travailler avec un choix d'environnements de développement intégrés populaires (IDEs) dans votre environnement local. Vous pouvez également travailler avec AWS Glue des blocs-notes [Amazon SageMaker Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html) via le AWS Management Console.

## Affiner le modèle
<a name="fine-tuning-implementation"></a>

AWS fournit des services tels qu'[Amazon SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/whatis.html) et [Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/what-is-bedrock.html) qui sont essentiels pour un réglage précis réussi.

SageMaker L'IA est un service d'apprentissage automatique entièrement géré qui aide les développeurs et les data scientists à créer, former et déployer rapidement des modèles de machine learning. Les trois fonctionnalités utiles de l' SageMaker IA pour le peaufinage sont les suivantes :
+ [SageMakerFormation](https://docs.aws.amazon.com/sagemaker/latest/dg/train-model.html) — Une fonctionnalité de machine learning entièrement gérée qui vous aide à entraîner efficacement un large éventail de modèles à grande échelle
+ [SageMaker JumpStart](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-jumpstart.html)— Une fonctionnalité qui s'appuie sur les tâches de SageMaker formation pour fournir des modèles préentraînés, des algorithmes intégrés et des modèles de solutions pour les tâches de machine learning
+ [SageMaker HyperPod](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-hyperpod.html)— Une solution d'infrastructure spécialement conçue pour la formation distribuée des modèles de base et LLMs

Amazon Bedrock est un service entièrement géré qui donne accès à des modèles de base très performants via une API, avec des fonctionnalités intégrées de sécurité, de confidentialité et d'évolutivité. Le service permet de peaufiner plusieurs modèles de base disponibles. Pour plus d'informations, consultez la section [Modèles et régions pris en charge pour un réglage précis et une formation préalable continue](https://docs.aws.amazon.com/bedrock/latest/userguide/custom-model-supported.html) dans la documentation Amazon Bedrock.

Lorsque vous abordez le processus de mise au point avec l'un ou l'autre service, tenez compte du modèle de base, de la stratégie de réglage et de l'infrastructure.

### Choix du modèle de base
<a name="base-model-choice.9ac49dfa-0d0f-5434-9ce4-383d4d601722"></a>

Les modèles à code source fermé, tels qu'Anthropic Claude, Meta Llama et Amazon Nova, offrent de solides out-of-the-box performances grâce à la gestion de la conformité, mais limitent la flexibilité de réglage aux options prises en charge par les fournisseurs, telles que celles gérées par Amazon Bedrock. APIs Cela limite la personnalisation, en particulier pour les cas d'utilisation des soins de santé réglementés. En revanche, les modèles open source, tels que Meta Llama, offrent un contrôle et une flexibilité complets sur l'ensemble des services Amazon SageMaker AI, ce qui les rend idéaux lorsque vous devez personnaliser, auditer ou adapter en profondeur un modèle à vos exigences spécifiques en matière de données ou de flux de travail.

### Stratégie de peaufinage
<a name="fine-tuning-strategy.5c89c2cc-a11b-5bbd-9b85-f487aafd92ed"></a>

Le réglage simple des instructions peut être géré par Amazon Bedrock [Model Customization](https://docs.aws.amazon.com/bedrock/latest/userguide/custom-models.html) ou Amazon SageMaker JumpStart. Les approches PEFT complexes, telles que LoRa ou les adaptateurs, nécessitent des tâches de SageMaker formation ou une fonctionnalité de réglage personnalisé dans Amazon Bedrock. La formation distribuée pour les très grands modèles est prise en charge par SageMaker HyperPod.

### Échelle et contrôle de l'infrastructure
<a name="infrastructure-scale-and-control.cdf2ff70-3099-570b-a6ed-d7ae06a019a0"></a>

Les services entièrement gérés, tels qu'Amazon Bedrock, minimisent la gestion de l'infrastructure et sont idéaux pour les entreprises qui privilégient la facilité d'utilisation et la conformité. Les options semi-gérées, par exemple SageMaker JumpStart, offrent une certaine flexibilité avec moins de complexité. Ces options conviennent au prototypage rapide ou à l'utilisation de flux de travail prédéfinis. Les tâches de SageMaker formation offrent un contrôle et une personnalisation complets HyperPod, bien que celles-ci nécessitent une plus grande expertise et soient idéales lorsque vous devez effectuer une mise à l'échelle pour des ensembles de données volumineux ou que vous avez besoin de pipelines personnalisés.

## Surveillance de modèles affinés
<a name="fine-tuning-monitoring"></a>

Dans les domaines de la santé et des sciences de la vie, le suivi de l'ajustement précis du LLM nécessite le suivi de plusieurs indicateurs de performance clés. La précision fournit une mesure de référence, mais cela doit être mis en balance avec la précision et le rappel, en particulier dans les applications où les erreurs de classification ont des conséquences importantes. Le score F1 aide à résoudre les problèmes de déséquilibre des classes qui peuvent être courants dans les ensembles de données médicales. Pour plus d’informations, consultez [Évaluation LLMs pour les applications des soins de santé et des sciences de la vie](evaluation.md) dans ce guide.

Les mesures d'étalonnage vous aident à vous assurer que les niveaux de confiance du modèle correspondent aux probabilités réelles. [Les indicateurs d'équité](https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-measure-data-bias.html) peuvent vous aider à détecter les biais potentiels selon les différents groupes démographiques de patients.

[MLflow](https://docs.aws.amazon.com/sagemaker/latest/dg/mlflow.html)est une solution open source qui peut vous aider à suivre des expériences de réglage précis. MLflow est pris en charge de manière native dans Amazon SageMaker AI, ce qui vous permet de comparer visuellement les indicateurs issus des sessions d'entraînement. Pour affiner les tâches sur Amazon Bedrock, les statistiques sont transmises à Amazon CloudWatch afin que vous puissiez les visualiser dans la console. CloudWatch 