

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Abordagens generativas de IA e PNL para saúde e ciências biológicas
<a name="hcls-options"></a>

O processamento de linguagem natural (PNL) é uma tecnologia de aprendizado de máquina que dá aos computadores a capacidade de interpretar, manipular e compreender a linguagem humana. As organizações de saúde e ciências biológicas têm grandes volumes de dados dos prontuários dos pacientes. Eles podem usar o software de PNL para processar automaticamente esses dados. Por exemplo, eles podem combinar a PNL com a IA generativa para simplificar a codificação médica, extrair informações do paciente e resumir os registros.

Dependendo da tarefa de PNL que você deseja realizar, arquiteturas diferentes podem ser mais adequadas para seu caso de uso. Este guia aborda as seguintes opções generativas de IA e PNL para aplicações de saúde e ciências biológicas em: AWS
+ [Usando o Amazon Comprehend Medical](comprehend-medical.md)— Saiba como usar o Amazon Comprehend Medical de forma independente, sem integrá-lo a um modelo de linguagem grande (LLM).
+ [Combinando o Amazon Comprehend Medical com grandes modelos de linguagem](comprehend-medical-rag.md)— Saiba como combinar o Amazon Comprehend Medical com um LLM em uma arquitetura Retrieval Augment Generation (RAG).
+ [Usando grandes modelos de linguagem para casos de uso de saúde e ciências biológicas](llms.md)— Saiba como usar um LLM para aplicações de saúde e ciências biológicas, usando um LLM ajustado ou uma arquitetura RAG.

# Usando o Amazon Comprehend Medical
<a name="comprehend-medical"></a>

[O Amazon Comprehend Medical](https://docs.aws.amazon.com/comprehend-medical/latest/dev/comprehendmedical-welcome.html) detecta e retorna informações úteis em textos clínicos não estruturados, como anotações médicas, resumos de alta, resultados de exames e notas de casos. AWS service (Serviço da AWS) Ele usa modelos de processamento de linguagem natural (PNL) para detectar entidades. *Entidades* são referências textuais a informações médicas, como condições médicas, medicamentos ou informações de saúde protegidas (PHI).

**Importante**  
O Amazon Comprehend Medical não é um substituto para aconselhamento, diagnóstico ou tratamento médico profissional. O Amazon Comprehend Medical fornece pontuações de confiança que indicam o nível de confiança na precisão das entidades detectadas. Identifique o limite de confiança certo para seu caso de uso e use limites de alta confiança em situações que exigem alta precisão. Em certos casos de uso, os resultados devem ser revisados e verificados por revisores humanos devidamente treinados. Por exemplo, o Amazon Comprehend Medical só deve ser usado em cenários de atendimento ao paciente após uma revisão que assegure a precisão e uma opinião médica confiável por profissionais médicos treinados.

Você pode acessar o Amazon Comprehend Medical por meio do Console de gerenciamento da AWS, do AWS Command Line Interface (AWS CLI) ou do. AWS SDKs Eles AWS SDKs estão disponíveis para várias linguagens e plataformas de programação, como Java, Python, Ruby, .NET, iOS e Android. Você pode usar o SDKs para acessar programaticamente o Amazon Comprehend Medical a partir do seu aplicativo cliente.

Esta seção analisa os principais recursos do Amazon Comprehend Medical. Ele também discute as vantagens de usar esse serviço em comparação com um modelo de linguagem grande (LLM).

## Capacidades do Amazon Comprehend Medical
<a name="comprehend-medical-capabilities"></a>

O Amazon Comprehend Medical oferece APIs inferência em lote e quase em tempo real. Eles APIs podem ingerir texto médico e fornecer resultados para tarefas médicas de PNL usando o reconhecimento de entidades médicas e identificando relacionamentos entre entidades. Você pode realizar análises em arquivos únicos ou em lote em vários arquivos armazenados em um bucket do Amazon Simple Storage Service (Amazon S3). O Amazon Comprehend Medical oferece as seguintes operações de API de análise de texto para detecção síncrona de entidades:
+ [Detectar entidades](https://docs.aws.amazon.com/comprehend-medical/latest/dev/textanalysis-entitiesv2.html) — Detecta categorias médicas gerais, como anatomia, condição médica, categoria de PHI, procedimentos e expressões temporais.
+ [Detectar PHI](https://docs.aws.amazon.com/comprehend-medical/latest/dev/textanalysis-phi.html) — Detecta entidades específicas, como idade, data, nome e informações pessoais semelhantes.

O Amazon Comprehend Medical também inclui várias operações de API que você pode usar para realizar análises de texto em lote em documentos clínicos. Para saber mais sobre como usar essas operações de API, consulte [Lote de análise de texto APIs](https://docs.aws.amazon.com/comprehend-medical/latest/dev/textanalysis-batchapi.html).

Use o Amazon Comprehend Medical para detectar entidades em textos clínicos e vincular essas entidades a conceitos em ontologias médicas padronizadas, incluindo as bases de conhecimento ICD-10-CM e SNOMED CT. RxNorm Você pode realizar análises em arquivos únicos ou em lote em documentos grandes ou em vários arquivos armazenados em um bucket do Amazon S3. O Amazon Comprehend Medical oferece a seguinte ontologia que vincula operações de API:
+ [Infer ICD10 CM](https://docs.aws.amazon.com/comprehend-medical/latest/dev/ontology-icd10.html) — A operação **Infer ICD10 CM** detecta possíveis condições médicas e as vincula aos códigos da versão 2019 da Classificação Internacional de Doenças, 10ª Revisão, Modificação Clínica (CID-10-CM). Para cada possível condição médica detectada, o Amazon Comprehend Medical lista os códigos e descrições ICD-10-CM correspondentes. As condições médicas listadas nos resultados incluem uma pontuação de confiança, que indica a confiança que o Amazon Comprehend Medical tem na precisão das entidades em relação aos conceitos correspondentes nos resultados.
+ [InferRxNorm](https://docs.aws.amazon.com/comprehend-medical/latest/dev/ontology-RxNorm.html)— A **InferRxNorm**operação identifica os medicamentos que estão listados no prontuário do paciente como entidades. Ele vincula entidades a identificadores de conceito (RxCUI) do RxNorm banco de dados da National Library of Medicine. Cada RxCUI é exclusivo de diferentes dosagens e formas de dosagem. Os medicamentos listados nos resultados incluem uma pontuação de confiança, que indica a confiança que o Amazon Comprehend Medical tem na precisão das entidades que correspondem aos conceitos da base de conhecimento. RxNorm O Amazon Comprehend Medical lista os principais Rx CUIs que potencialmente coincidem com cada medicamento que ele detecta em ordem decrescente com base na pontuação de confiança.
+ [InfersNomeDCT](https://docs.aws.amazon.com/comprehend-medical/latest/dev/ontology-linking-snomed.html) — A operação **InfersNomeDCT** identifica possíveis conceitos médicos como entidades e os vincula a códigos da versão 2021-03 da Nomenclatura Sistematizada de Medicina, Termos Clínicos (SNOMED CT). O SNOMED CT fornece um vocabulário abrangente de conceitos médicos, incluindo condições médicas e anatomia, exames médicos, tratamentos e procedimentos. Para cada ID de conceito correspondente, o Amazon Comprehend Medical retorna os cinco principais conceitos médicos, cada um com uma pontuação de confiança e informações contextuais, como características e atributos. O conceito SNOMED CT IDs pode então ser usado para estruturar dados clínicos do paciente para codificação médica, relatórios ou análises clínicas quando usado com a polihierarquia do SNOMED CT.

Para obter mais informações, consulte [Análise de texto APIs](https://docs.aws.amazon.com/comprehend-medical/latest/dev/comprehendmedical-textanalysis.html) e [vinculação de ontologias APIs na documentação](https://docs.aws.amazon.com/comprehend-medical/latest/dev/comprehendmedical-ontologies.html) do Amazon Comprehend Medical.

## Casos de uso do Amazon Comprehend Medical
<a name="comprehend-medical-use-cases"></a>

Como um serviço independente, o Amazon Comprehend Medical pode abordar o caso de uso da sua organização. O Amazon Comprehend Medical pode realizar tarefas como as seguintes:
+ Ajuda com a codificação médica nos prontuários dos pacientes
+ Detecte dados de informações de saúde protegidas (PHI)
+ Validando medicamentos, incluindo atributos como dosagem, frequência e forma

Os resultados do Amazon Comprehend Medical são digeríveis para a maioria dos consultórios médicos. No entanto, talvez seja necessário considerar alternativas se tiver limitações, como as seguintes:
+ **Definições de entidades diferentes** — Por exemplo, sua definição `FREQUENCY` de entidade medicamentosa pode ser diferente. Para fins de frequência, o Amazon Comprehend Medical prevê *conforme necessário*, mas sua organização pode usar o termo *pro re* nata (PRN).
+ **Quantidade impressionante de resultados** — Por exemplo, as anotações do paciente geralmente contêm vários sintomas e palavras-chave que são mapeados para vários códigos ICD-10-CM. No entanto, várias das palavras-chave não são aplicáveis ao diagnóstico. Nesse caso, o provedor deve avaliar várias entidades do ICD-10-CM e suas pontuações de confiança, o que requer tempo de processamento manual.
+ **Entidades personalizadas ou tarefas de PNL** — Por exemplo, os provedores podem querer extrair evidências do PRN, como coletar *conforme necessário para* tratar a dor. Como isso não está disponível no Amazon Comprehend Medical, um modelo diferente AI/ML é garantido. Uma AI/ML solução diferente é necessária se a tarefa de PNL estiver fora do reconhecimento da entidade, como resumo, resposta a perguntas e análise de sentimentos.

# Combinando o Amazon Comprehend Medical com grandes modelos de linguagem
<a name="comprehend-medical-rag"></a>

Um [estudo de 2024 realizado pela NEJM AI](https://ai.nejm.org/doi/pdf/10.1056/AIdbp2300040) mostrou que usar um LLM, com solicitação zero, para tarefas de codificação médica geralmente leva a um desempenho ruim. Usar o Amazon Comprehend Medical com um LLM pode ajudar a mitigar esses problemas de desempenho. Os resultados do Amazon Comprehend Medical são um contexto útil para um LLM que está realizando tarefas de PNL. Por exemplo, fornecer contexto do Amazon Comprehend Medical para o grande modelo de linguagem pode ajudar você a:
+ Aumente a precisão das seleções de entidades usando os resultados iniciais do Amazon Comprehend Medical como contexto para o LLM
+ Implemente reconhecimento personalizado de entidades, resumos, respostas a perguntas e casos de uso adicionais

Esta seção descreve como você pode combinar o Amazon Comprehend Medical com um LLM usando uma abordagem de geração aumentada de recuperação (RAG). A *Retrieval Augmented Generation (RAG)* é uma tecnologia generativa de IA na qual um LLM faz referência a uma fonte de dados autorizada que está fora de suas fontes de dados de treinamento antes de gerar uma resposta. Para obter mais informações, consulte [O que é RAG (geração aumentada via recuperação)?](https://aws.amazon.com/what-is/retrieval-augmented-generation/).

Para ilustrar essa abordagem, esta seção usa o exemplo de codificação médica (diagnóstico) relacionada ao ICD-10-CM. Ele inclui uma arquitetura de amostra e modelos de engenharia rápidos para ajudar a acelerar sua inovação. Também inclui as melhores práticas para usar o Amazon Comprehend Medical em um fluxo de trabalho do RAG.

## Arquitetura baseada em RAG com o Amazon Comprehend Medical
<a name="comprehend-medical-rag-architecture"></a>

O diagrama a seguir ilustra uma abordagem RAG para identificar códigos de diagnóstico da CID-10-CM a partir de anotações de pacientes. Ele usa o Amazon Comprehend Medical como fonte de conhecimento. Em uma abordagem RAG, o método de recuperação geralmente recupera informações de um banco de dados vetorial contendo conhecimento aplicável. Em vez de um banco de dados vetoriais, essa arquitetura usa o Amazon Comprehend Medical para a tarefa de recuperação. O orquestrador envia as informações da nota do paciente para o Amazon Comprehend Medical e recupera as informações do código ICD-10-CM. O orquestrador envia esse contexto para o modelo de fundação downstream (LLM), por meio do Amazon Bedrock. O LLM gera uma resposta usando as informações do código ICD-10-CM, e essa resposta é enviada de volta ao aplicativo cliente.

![\[Um fluxo de trabalho do RAG que usa o Amazon Comprehend Medical como fonte de conhecimento.\]](http://docs.aws.amazon.com/pt_br/prescriptive-guidance/latest/generative-ai-nlp-healthcare/images/architecture-comprehend-medical-rag-workflow.png)


O diagrama mostra o seguinte fluxo de trabalho do RAG:

1. O aplicativo cliente envia as anotações do paciente como uma consulta ao orquestrador. Um exemplo dessas anotações do paciente pode ser: “A paciente é uma paciente do Dr. X. A paciente se apresentou à sala de emergência na noite passada com aproximadamente 7 a 8 dias de história de dor abdominal, que tem sido persistente. Ela não teve febres ou calafrios definidos nem histórico de icterícia. O paciente nega qualquer perda significativa de peso recente."

1. O orquestrador usa o Amazon Comprehend Medical para recuperar códigos ICD-10-CM relevantes às informações médicas na consulta. Ele usa a API **Infer ICD10 CM** para extrair e inferir os códigos ICD-10-CM das anotações do paciente.

1. O orquestrador cria um prompt que inclui o modelo de prompt, a consulta original e os códigos ICD-10-CM recuperados do Amazon Comprehend Medical. Ele envia esse contexto aprimorado para o Amazon Bedrock.

1. O Amazon Bedrock processa a entrada e usa um modelo básico para gerar uma resposta que inclui os códigos ICD-10-CM e suas evidências correspondentes da consulta. A resposta gerada inclui os códigos ICD-10-CM identificados e as evidências das anotações do paciente que apóiam cada código. Veja a seguir uma resposta de exemplo:

   ```
   <response>
   <icd10>
   <code>R10.9</code>
   <evidence>history of abdominal pain</evidence>
   </icd10>
   <icd10>
   <code>R10.30</code>
   <evidence>history of abdominal pain</evidence>
   </icd10>
   </response>
   ```

1. O Amazon Bedrock envia a resposta gerada ao orquestrador.

1. O orquestrador envia a resposta de volta ao aplicativo cliente, onde o usuário pode revisar a resposta.

## Casos de uso para usar o Amazon Comprehend Medical em um fluxo de trabalho do RAG
<a name="comprehend-medical-rag-use-cases"></a>

O Amazon Comprehend Medical pode realizar tarefas específicas de PNL. Para obter mais informações, consulte [Casos de uso do Amazon Comprehend Medical](comprehend-medical.md#comprehend-medical-use-cases).

Talvez você queira integrar o Amazon Comprehend Medical a um fluxo de trabalho do RAG para casos de uso avançados, como os seguintes:
+ Gere resumos clínicos detalhados combinando entidades médicas extraídas com informações contextuais dos registros dos pacientes
+ Automatize a codificação médica para casos complexos usando entidades extraídas com informações vinculadas à ontologia para atribuição de código
+ Automatize a criação de notas clínicas estruturadas a partir de texto não estruturado usando entidades médicas extraídas
+ Analise os efeitos colaterais dos medicamentos com base nos nomes e atributos dos medicamentos extraídos
+ Desenvolva sistemas inteligentes de suporte clínico que combinem informações médicas extraídas com up-to-date pesquisas e diretrizes

## Melhores práticas para usar o Amazon Comprehend Medical em um fluxo de trabalho do RAG
<a name="comprehend-medical-rag-best-practices"></a>

Ao integrar os resultados do Amazon Comprehend Medical em uma solicitação para um LLM, é essencial seguir as melhores práticas. Isso pode melhorar o desempenho e a precisão. A seguir estão as principais recomendações:
+ **Entenda as pontuações de confiança do Amazon Comprehend Medical — O Amazon Comprehend Medical fornece pontuações** de confiança para cada entidade detectada e vinculação de ontologia. É fundamental entender o significado dessas pontuações e estabelecer limites apropriados para seu caso de uso específico. As pontuações de confiança ajudam a filtrar entidades de baixa confiança, reduzindo o ruído e melhorando a qualidade da entrada do LLM.
+ **Use pontuações de confiança na engenharia imediata** — Ao criar solicitações para o LLM, considere incorporar as pontuações de confiança do Amazon Comprehend Medical como contexto adicional. Isso ajuda o LLM a priorizar ou avaliar entidades com base em seus níveis de confiança, melhorando potencialmente a qualidade da produção.
+ **Avalie os resultados do Amazon Comprehend Medical com dados reais — Os dados verdadeiros** *são informações que se sabe serem verdadeiras*. Ele pode ser usado para validar se um AI/ML aplicativo está produzindo resultados precisos. Antes de integrar os resultados do Amazon Comprehend Medical ao seu fluxo de trabalho de LLM, avalie o desempenho do serviço em uma amostra representativa de seus dados. Compare os resultados com anotações verdadeiras para identificar possíveis discrepâncias ou áreas de melhoria. Essa avaliação ajuda você a entender os pontos fortes e as limitações do Amazon Comprehend Medical para seu caso de uso.
+ **Selecione estrategicamente informações relevantes** — O Amazon Comprehend Medical pode fornecer uma grande quantidade de informações, mas nem todas podem ser relevantes para sua tarefa. Selecione cuidadosamente as entidades, os atributos e os metadados que são mais relevantes para seu caso de uso. Fornecer muitas informações irrelevantes ao LLM pode introduzir ruído e potencialmente diminuir o desempenho.
+ **Alinhe as definições de entidades** — Certifique-se de que as definições de entidades e atributos usados pelo Amazon Comprehend Medical estejam alinhadas com sua interpretação. Se houver discrepâncias, considere fornecer contexto ou esclarecimento adicional ao LLM para preencher a lacuna entre a produção do Amazon Comprehend Medical e seus requisitos. Se a entidade Amazon Comprehend Medical não atender às suas expectativas, você pode implementar a detecção personalizada de entidades incluindo instruções adicionais (e possíveis exemplos) no prompt.
+ **Forneça conhecimento específico do domínio —** Embora o Amazon Comprehend Medical forneça informações médicas valiosas, ele pode não capturar todas as nuances do seu domínio específico. Considere complementar os resultados do Amazon Comprehend Medical com fontes adicionais de conhecimento específicas do domínio, como ontologias, terminologias ou conjuntos de dados selecionados por especialistas. Isso fornece um contexto mais abrangente para o LLM.
+ **Siga as diretrizes éticas e regulatórias** — Ao lidar com dados médicos, é importante seguir os princípios éticos e as diretrizes regulatórias, como as relacionadas à privacidade de dados, segurança e uso responsável de sistemas de IA na área da saúde. Certifique-se de que sua implementação esteja em conformidade com as leis relevantes e as melhores práticas do setor.

Seguindo essas melhores práticas, AI/ML os profissionais podem usar com eficácia os pontos fortes do Amazon Comprehend Medical e. LLMs Para tarefas médicas de PNL, essas melhores práticas ajudam a mitigar riscos potenciais e podem melhorar o desempenho.

## Engenharia rápida para o contexto do Amazon Comprehend Medical
<a name="comprehend-medical-rag-prompt-engineering"></a>

A [engenharia rápida](https://aws.amazon.com/what-is/prompt-engineering/) é o processo de projetar e refinar solicitações para orientar uma solução generativa de IA para gerar os resultados desejados. Você escolhe os formatos, frases, palavras e símbolos mais adequados que orientam a IA a interagir com seus usuários de forma mais significativa.

Dependendo da operação de API que você executa, o Amazon Comprehend Medical retorna as entidades detectadas, os códigos e descrições da ontologia e as pontuações de confiança. Esses resultados se tornam contextuais no prompt quando sua solução invoca o LLM de destino. Você deve criar a solicitação para apresentar o contexto dentro do modelo de solicitação.

**nota**  
Os exemplos de instruções nesta seção seguem as orientações [antrópicas](https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/overview). Se você estiver usando um provedor de LLM diferente, siga as recomendações desse provedor.

Em geral, você insere o texto médico original e os resultados do Amazon Comprehend Medical no prompt. A seguir está uma estrutura de prompt comum:

```
<medical_text>
medical text
</medical_text>

<comprehend_medical_text_results>
comprehend medical text results
</comprehend_medical_text_results>

<prompt_instructions>
prompt instructions
</prompt_instructions>
```

Esta seção fornece estratégias para incluir os resultados do Amazon Comprehend Medical como contexto imediato para as seguintes tarefas comuns de PNL médica:
+ [Filtrar resultados do Amazon Comprehend Medical](#prompt-engineering-filter-results)
+ [Estenda as tarefas médicas de PNL com o Amazon Comprehend Medical](#prompt-engineering-extend-nlp)
+ [Aplique grades de proteção com o Amazon Comprehend Medical](#prompt-engineering-guardrails)

### Filtrar resultados do Amazon Comprehend Medical
<a name="prompt-engineering-filter-results"></a>

O Amazon Comprehend Medical normalmente fornece uma grande quantidade de informações. Talvez você queira reduzir o número de resultados que o profissional médico deve analisar. Nesse caso, você pode usar um LLM para filtrar esses resultados. As entidades do Amazon Comprehend Medical incluem uma pontuação de confiança que você pode usar como mecanismo de filtragem ao criar o prompt.

A seguir está um exemplo de nota do paciente:

```
Carlie had a seizure 2 weeks ago. She is complaining of frequent headaches
Nausea is also present. She also complains of eye trouble with blurry vision
Meds : Topamax 50 mgs at breakfast daily,
Send referral order to neurologist
Follow-up as scheduled
```

Nesta nota do paciente, o Amazon Comprehend Medical detecta as seguintes entidades.

![\[Detecção de entidades no Amazon Comprehend Medical.\]](http://docs.aws.amazon.com/pt_br/prescriptive-guidance/latest/generative-ai-nlp-healthcare/images/comprehend-medical-entity-detection.png)


As entidades estão vinculadas aos seguintes códigos ICD-10-CM para convulsões e dores de cabeça.


| 
| 
| Categoria | Código ICD-10-CM | Descrição do ICD-10-CM | Pontuação de confiança | 
| --- |--- |--- |--- |
| Convulsão | R56.9 | Convulsões não especificadas | 0,8348 | 
| Convulsão | G40.909 | Epilepsia, não especificada, não intratável, sem status epiléptico | 0,5424 | 
| Convulsão | R56,00 | Convulsões febris simples | 0,4937 | 
| Convulsão | G40.09 | Outras convulsões | 0,4397 | 
| Convulsão | G40.409 | Outras epilepsias generalizadas e síndromes epilépticas, não intratáveis, sem status epiléptico | 0,4138 | 
| dores de cabeça | R51 | dor de cabeça | 0,4067 | 
| dores de cabeça | R51.9 | Dor de cabeça, não especificada | 0,3844 | 
| dores de cabeça | G4.52 | Nova dor de cabeça persistente diária (NDPH) | 0,3005 | 
| dores de cabeça | G44 | Outra síndrome de dor de cabeça | 0,2670 | 
| dores de cabeça | G4.8 | Outras síndromes de cefaleia especificadas | 0,2542 | 

Você pode passar códigos ICD-10-CM para o prompt para aumentar a precisão do LLM. Para reduzir o ruído, você pode filtrar os códigos ICD-10-CM usando a pontuação de confiança incluída nos resultados do Amazon Comprehend Medical. A seguir está um exemplo de solicitação que inclui somente códigos ICD-10-CM com uma pontuação de confiança superior a 0,4:

```
<patient_note>
Carlie had a seizure 2 weeks ago. She is complaining of frequent headaches
Nausea is also present. She also complains of eye trouble with blurry vision
Meds : Topamax 50 mgs at breakfast daily,
Send referral order to neurologist
Follow-up as scheduled
</patient_note>

<comprehend_medical_results>
<icd-10>
  <entity>
    <text>seizure</text>
    <code>
      <description>Unspecified convulsions</description>
      <code_value>R56.9</code_value>
      <score>0.8347607851028442</score>
    </code>
    <code>
      <description>Epilepsy, unspecified, not intractable, without status epilepticus</description>
      <code_value>G40.909</code_value>
      <score>0.542376697063446</score>
    </code>
    <code>
      <description>Other seizures</description>
      <code_value>G40.89</code_value>
      <score>0.43966275453567505</score>
    </code>
    <code>
      <description>Other generalized epilepsy and epileptic syndromes, not intractable, without status epilepticus</description>
      <code_value>G40.409</code_value>
      <score>0.41382506489753723</score>
    </code>
  </entity>
  <entity>
    <text>headaches</text>
    <code>
      <description>Headache</description>
      <code_value>R51</code_value>
      <score>0.4066613018512726</score>
    </code>
  </entity>
  <entity>
    <text>Nausea</text>
    <code>
      <description>Nausea</description>
      <code_value>R11.0</code_value>
      <score>0.6460834741592407</score>
    </code>
  </entity>
  <entity>
    <text>eye trouble</text>
    <code>
      <description>Unspecified disorder of eye and adnexa</description>
      <code_value>H57.9</code_value>
      <score>0.6780954599380493</score>
    </code>
    <code>
      <description>Unspecified visual disturbance</description>
      <code_value>H53.9</code_value>
      <score>0.5871203541755676</score>
    </code>
    <code>
      <description>Unspecified disorder of binocular vision</description>
      <code_value>H53.30</code_value>
      <score>0.5539672374725342</score>
    </code>
  </entity>
  <entity>
    <text>blurry vision</text>
    <code>
      <description>Other visual disturbances</description>
      <code_value>H53.8</code_value>
      <score>0.9001834392547607</score>
    </code>
  </entity>
</icd-10>
</comprehend_medical_results>

<prompt>
Given the patient note and Amazon Comprehend Medical ICD-10-CM code results above, please select the most relevant ICD-10-CM diagnosis codes for the patient. 
For each selected code, provide a brief explanation of why it is relevant based on the information in the patient note.
</prompt>
```

### Estenda as tarefas médicas de PNL com o Amazon Comprehend Medical
<a name="prompt-engineering-extend-nlp"></a>

Ao processar textos médicos, o contexto do Amazon Comprehend Medical pode ajudar o LLM a selecionar melhores tokens. Neste exemplo, você deseja combinar os sintomas do diagnóstico com os medicamentos. Você também deseja encontrar textos relacionados a exames médicos, como termos relacionados a um exame de hemograma. Você pode usar o Amazon Comprehend Medical para detectar as entidades e os nomes dos medicamentos. Nesse caso, você usaria o [DetectEntitiesV2](https://docs.aws.amazon.com/comprehend-medical/latest/dev/textanalysis-entitiesv2.html) e o Amazon [InferRxNorm](https://docs.aws.amazon.com/comprehend-medical/latest/dev/ontology-RxNorm.html) APIs Comprehend Medical.

A seguir está um exemplo de nota do paciente:

```
Carlie had a seizure 2 weeks ago. She is complaining of increased frequent headaches
Given lyme disease symptoms such as muscle ache and stiff neck will order prescription.
Meds : Topamax 50 mgs at breakfast daily. Amoxicillan 25 mg by mouth twice a day
Place MRI radiology order at RadNet
```

Para focar no código de diagnóstico, somente as entidades relacionadas `MEDICAL_CONDITION` ao tipo `DX_NAME` são usadas no prompt. Outros metadados são excluídos devido à irrelevância. Para entidades de medicamentos, o nome do medicamento junto com os atributos extraídos está incluído. Outros metadados de entidades medicamentosas do Amazon Comprehend Medical foram excluídos devido à irrelevância. Veja a seguir um exemplo de solicitação que usa resultados filtrados do Amazon Comprehend Medical. O prompt se concentra em `MEDICAL_CONDITION` entidades que têm o `DX_NAME` tipo. Esse prompt foi projetado para vincular com mais precisão os códigos de diagnóstico aos medicamentos e extrair com mais precisão os exames de pedidos médicos:

```
<patient_note>
Carlie had a seizure 2 weeks ago. She is complaining of increased freqeunt headaches
Given lyme disease symptoms such as muscle ache and stiff neck will order prescription. 
Meds : Topamax 50 mgs at breakfast daily. Amoxicillan 25 mg by mouth twice a day
Place MRI radiology order at RadNet
</patient_note>

<detect_entity_results>
<entity>
    <text>seizure</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
<entity>
    <text>headaches</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
<entity>
    <text>lyme disease</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
<entity>
    <text>muscle ache</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
<entity>
    <text>stiff neck</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
</detect_entity_results>

<rx_results>
<entity>
    <text>Topamax</text>
    <category>MEDICATION</category>
    <type>BRAND_NAME</type>
    <attributes>
        <attribute>
            <type>FREQUENCY</type>
            <text>at breakfast daily</text>
        </attribute>
        <attribute>
            <type>DOSAGE</type>
            <text>50 mgs</text>
        </attribute>
        <attribute>
            <type>ROUTE_OR_MODE</type>
            <text>by mouth</text>
        </attribute>
    </attributes>
</entity>
<entity>
    <text>Amoxicillan</text>
    <category>MEDICATION</category>
    <type>GENERIC_NAME</type>
    <attributes>
        <attribute>
            <type>ROUTE_OR_MODE</type>
            <text>by mouth</text>
        </attribute>
        <attribute>
            <type>DOSAGE</type>
            <text>25 mg</text>
        </attribute>
        <attribute>
            <type>FREQUENCY</type>
            <text>twice a day</text>
        </attribute>
    </attributes>
</entity>
</rx_results>

<prompt>
Based on the patient note and the detected entities, can you please:
1. Link the diagnosis symptoms with the medications prescribed. 
Provide your reasoning for the linkages.
2. Extract any entities related to medical order tests mentioned in the note.
</prompt>
```

### Aplique grades de proteção com o Amazon Comprehend Medical
<a name="prompt-engineering-guardrails"></a>

Você pode usar um LLM e o Amazon Comprehend Medical para criar grades de proteção antes que a resposta gerada seja usada. Você pode executar esse fluxo de trabalho em textos médicos não modificados ou pós-processados. Os casos de uso incluem o tratamento de informações de saúde protegidas (PHI), a detecção de alucinações ou a implementação de políticas personalizadas para publicação de resultados. Por exemplo, você pode usar o contexto do Amazon Comprehend Medical para identificar dados de PHI e, em seguida, usar o LLM para remover esses dados de PHI.

Veja a seguir um exemplo de informações de um prontuário de paciente que inclui PHI:

```
Patient name: John Doe
Patient SSN: 123-34-5678
Patient DOB: 01/01/2024
Patient address: 123 Main St, Anytown USA
Exam details: good health. Pulse is 60 bpm. needs to work on diet with BMI of 190
```

Veja a seguir um exemplo de solicitação que inclui os resultados do Amazon Comprehend Medical como contexto:

```
<original_text>
Patient name: John Doe
Patient SSN: 123-34-5678 Patient DOB: 01/01/2024
Patient address: 123 Main St, Anytown USA
Exam details: good health. Pulse is 60 bpm. needs to work on diet with BMI of 190
</original_text>

<comprehend_medical_phi_entities>
<entity>
  <text>John Doe</text>
  <category>PROTECTED_HEALTH_INFORMATION</category>
  <score>0.9967944025993347</score>
  <type>NAME</type>
</entity>
<entity>
  <text>123-34-5678</text>
  <category>PROTECTED_HEALTH_INFORMATION</category>
  <score>0.9998034834861755</score>
  <type>ID</type>
</entity>
<entity>
  <text>01/01/2000</text>
  <category>PROTECTED_HEALTH_INFORMATION</category>
  <score>0.9964448809623718</score>
  <type>DATE</type>
</entity>
</comprehend_medical_phi_entities>

<instructions>
Using the provided original text and the Amazon Comprehend Medical PHI entities detected, please analyze the text to determine if it contains any additional protected health information (PHI) beyond the entities already identified. If additional PHI is found, please list and categorize it. If no additional PHI is found, please state that explicitly.
In addition if PHI is found, generate updated text with the PHI removed. 
</instructions>
```

# Usando grandes modelos de linguagem para casos de uso de saúde e ciências biológicas
<a name="llms"></a>

Isso descreve como você pode usar modelos de linguagem grandes (LLMs) para aplicações de saúde e ciências biológicas. Alguns casos de uso exigem o uso de um grande modelo de linguagem para recursos generativos de IA. Há vantagens e limitações até mesmo para a maioria state-of-the-art LLMs, e as recomendações nesta seção foram elaboradas para ajudá-lo a atingir os resultados desejados.

Você pode usar o caminho de decisão para determinar a solução LLM apropriada para seu caso de uso, considerando fatores como conhecimento do domínio e dados de treinamento disponíveis. Além disso, esta seção discute os médicos pré-treinados populares LLMs e as melhores práticas para sua seleção e uso. Ele também discute as vantagens e desvantagens entre soluções complexas de alto desempenho e abordagens mais simples e de baixo custo.

## Casos de uso para um LLM
<a name="llm-use-cases"></a>

O Amazon Comprehend Medical pode realizar tarefas específicas de PNL. Para obter mais informações, consulte [Casos de uso do Amazon Comprehend Medical](comprehend-medical.md#comprehend-medical-use-cases).

Os recursos lógicos e generativos de IA de um LLM podem ser necessários para os casos de uso avançados de saúde e ciências biológicas, como os seguintes:
+ Classificação de entidades médicas personalizadas ou categorias de texto
+ Respondendo a perguntas clínicas
+ Resumindo relatórios médicos
+ Gerando e detectando insights de informações médicas

## Abordagens de personalização
<a name="llm-customization"></a>

É fundamental entender como LLMs são implementados. LLMs geralmente são treinados com bilhões de parâmetros, incluindo dados de treinamento de vários domínios. Esse treinamento permite que o LLM aborde as tarefas mais generalizadas. No entanto, muitas vezes surgem desafios quando o conhecimento específico do domínio é necessário. Exemplos de conhecimento de domínio em saúde e ciências biológicas são códigos clínicos, terminologia médica e informações de saúde necessárias para gerar respostas precisas. Portanto, usar o LLM como está (solicitação zero sem complementar o conhecimento do domínio) para esses casos de uso provavelmente resulta em resultados imprecisos. Há várias abordagens populares que você pode usar para superar esse desafio: engenharia rápida, geração aumentada de recuperação (RAG) e ajuste fino.

### Engenharia rápida
<a name="llm-customization-prompt-engineering"></a>

A *engenharia rápida* é o processo em que você orienta as soluções generativas de IA para criar as saídas desejadas ajustando as entradas ao LLM. Ao criar instruções precisas com contexto relevante, é possível orientar o modelo para a conclusão de tarefas de saúde especializadas que exigem raciocínio. A engenharia rápida eficaz pode melhorar significativamente o desempenho do modelo para casos de uso na área de saúde sem exigir modificações no modelo. Para obter mais informações sobre engenharia rápida, consulte [Implementação de engenharia rápida avançada com o Amazon Bedrock](https://aws.amazon.com/blogs/machine-learning/implementing-advanced-prompt-engineering-with-amazon-bedrock/) (postagem AWS no blog). A solicitação e a solicitação de poucas tentativas são técnicas que você pode usar na engenharia chain-of-thought imediata.

#### prompt few shot
<a name="few-shot-prompting"></a>

A solicitação de poucos cliques é uma técnica em que você fornece ao LLM alguns exemplos da entrada-saída desejada antes de solicitar que ele execute uma tarefa semelhante. Em contextos de saúde, essa abordagem é particularmente valiosa para tarefas especializadas, como reconhecimento de entidades médicas ou resumo de notas clínicas. Ao incluir de 3 a 5 exemplos de alta qualidade em sua solicitação, você pode melhorar significativamente a compreensão do modelo sobre a terminologia médica e os padrões específicos do domínio. Para ver um exemplo de [solicitação em poucas etapas, consulte Engenharia e ajuste fino de solicitações em poucas fotos no LLMs Amazon Bedrock (postagem no blog](https://aws.amazon.com/blogs/machine-learning/few-shot-prompt-engineering-and-fine-tuning-for-llms-in-amazon-bedrock/)).AWS 

Por exemplo, ao extrair dosagens de medicamentos de notas clínicas, você pode fornecer exemplos de diferentes estilos de notação que ajudam o modelo a reconhecer variações na forma como os profissionais de saúde documentam as prescrições. Essa abordagem é especialmente eficaz quando se trabalha com formatos de documentação padronizados ou quando existem padrões consistentes nos dados.

#### Chain-of-thought solicitando
<a name="chain-of-thought-prompting"></a>

Chain-of-thought A *solicitação (CoT)* orienta o LLM em um processo de step-by-step raciocínio. Isso o torna valioso para tarefas complexas de apoio à decisão médica e raciocínio diagnóstico. Ao instruir explicitamente o modelo a “pensar passo a passo” ao analisar cenários clínicos, você pode melhorar sua capacidade de seguir protocolos de raciocínio médico e reduzir os erros de diagnóstico.

Essa técnica é excelente quando o raciocínio clínico requer várias etapas lógicas, como diagnóstico diferencial ou planejamento de tratamento. No entanto, essa abordagem tem limitações ao lidar com conhecimento médico altamente especializado fora dos dados de treinamento do modelo ou quando é necessária precisão absoluta para decisões de cuidados intensivos.

Nesses casos, combinar o CoT com outra abordagem pode gerar melhores resultados. Uma opção é combinar CoT com solicitações de autoconsistência. Para obter mais informações, consulte [Melhorar o desempenho de modelos de linguagem generativa com solicitações de autoconsistência no Amazon Bedrock](https://aws.amazon.com/blogs/machine-learning/enhance-performance-of-generative-language-models-with-self-consistency-prompting-on-amazon-bedrock/) (AWS postagem do blog). Outra opção é combinar estruturas de raciocínio, como ReAct prompting, com o RAG. Para obter mais informações, consulte [Desenvolver assistentes avançados baseados em bate-papo com IA generativa usando RAG e ReAct prompting](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/develop-advanced-generative-ai-chat-based-assistants-by-using-rag-and-react-prompting.html) (orientação prescritiva).AWS 

### Geração aumentada via recuperação
<a name="llm-customization-rag"></a>

A *Retrieval Augmented Generation (RAG)* é uma tecnologia generativa de IA na qual um LLM faz referência a uma fonte de dados autorizada que está fora de suas fontes de dados de treinamento antes de gerar uma resposta. Um sistema RAG pode recuperar informações de ontologia médica (como classificações internacionais de doenças, arquivos nacionais de medicamentos e títulos de assuntos médicos) de uma fonte de conhecimento. Isso fornece contexto adicional ao LLM para apoiar a tarefa médica de PNL.

Conforme discutido na [Combinando o Amazon Comprehend Medical com grandes modelos de linguagem](comprehend-medical-rag.md) seção, você pode usar uma abordagem RAG para recuperar o contexto do Amazon Comprehend Medical. Outras fontes de conhecimento comuns incluem dados de domínio médico que são armazenados em um serviço de banco de dados, como Amazon OpenSearch Service, Amazon Kendra ou Amazon Aurora. Extrair informações dessas fontes de conhecimento pode afetar o desempenho da recuperação, especialmente com consultas semânticas que usam um banco de dados vetoriais.

Outra opção para armazenar e recuperar conhecimento específico do domínio é usar o [Amazon Q Business](https://docs.aws.amazon.com/amazonq/latest/qbusiness-ug/what-is.html) em seu fluxo de trabalho do RAG. O Amazon Q Business pode indexar repositórios internos de documentos ou sites públicos (como [CMS.gov](https://cms.gov/) para dados do ICD-10). O Amazon Q Business pode então extrair informações relevantes dessas fontes antes de passar sua consulta para o LLM.

Há várias maneiras de criar um fluxo de trabalho de RAG personalizado. Por exemplo, há muitas maneiras de recuperar dados de uma fonte de conhecimento. Para simplificar, recomendamos a abordagem comum de recuperação de usar um banco de dados vetoriais, como o Amazon OpenSearch Service, para armazenar conhecimento como incorporações. Isso exige que você use um modelo de incorporação, como um transformador de frases, para gerar incorporações para a consulta e para o conhecimento armazenado no banco de dados vetoriais.

Para obter mais informações sobre abordagens RAG totalmente gerenciadas e personalizadas, consulte [Opções e arquiteturas de geração aumentada de recuperação](https://docs.aws.amazon.com/prescriptive-guidance/latest/retrieval-augmented-generation-options/introduction.html) em. AWS

### Ajuste fino
<a name="llm-customization-fine-tuning"></a>

O *ajuste fino* de um modelo existente envolve usar um LLM, como um modelo Amazon Titan, Mistral ou Llama, e depois adaptar o modelo aos seus dados personalizados. Existem várias técnicas de ajuste fino, a maioria das quais envolve a modificação de apenas alguns parâmetros em vez de modificar todos os parâmetros do modelo. Isso é chamado de ajuste *fino com eficiência de parâmetros (*PEFT). Para obter mais informações, consulte [Hugging](https://github.com/huggingface/peft) Face PEFT ativado. GitHub

A seguir estão dois casos de uso comuns em que você pode optar por ajustar um LLM para uma tarefa médica de PNL:
+ **Tarefa generativa** — modelos baseados em decodificador realizam tarefas generativas de IA. AI/ML os profissionais usam dados reais básicos para ajustar um LLM existente. Por exemplo, você pode treinar o LLM usando o [MedQuAD](https://github.com/abachaa/MedQuAD), um conjunto de dados público de respostas a perguntas médicas. Ao invocar uma consulta para o LLM ajustado, você não precisa de uma abordagem RAG para fornecer o contexto adicional ao LLM.
+ **Incorporações** — modelos baseados em codificadores geram incorporações transformando texto em vetores numéricos. Esses modelos baseados em codificadores são normalmente chamados de modelos de *incorporação*. Um modelo de *transformador de frases é um tipo específico de modelo* de incorporação otimizado para sentenças. O objetivo é gerar incorporações a partir do texto de entrada. As incorporações são então usadas para análise semântica ou em tarefas de recuperação. Para ajustar o modelo de incorporação, você deve ter um conjunto de conhecimentos médicos, como documentos, que possa ser usado como dados de treinamento. Isso é feito com pares de texto baseados em semelhança ou sentimento para ajustar um modelo de transformador de frases. Para obter mais informações, consulte [Treinando e ajustando modelos de incorporação com Sentence Transformers v3 em Hugging](https://huggingface.co/blog/train-sentence-transformers) Face.

Você pode usar o [Amazon SageMaker Ground Truth](https://docs.aws.amazon.com/sagemaker/latest/dg/sms.html) para criar um conjunto de dados de treinamento rotulado e de alta qualidade. Você pode usar a saída de conjunto de dados rotulado do Ground Truth para treinar seus próprios modelos. Você também pode usar a saída como um conjunto de dados de treinamento para um modelo de SageMaker IA da Amazon. Para obter mais informações sobre reconhecimento de entidade nomeada, classificação de texto com rótulo único e classificação de texto com vários rótulos, consulte [Rotulagem de texto com Ground Truth](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-label-text.html) na documentação da Amazon SageMaker AI.

Para obter mais informações sobre o ajuste fino, consulte este [Ajustando grandes modelos de linguagem na área da saúde](fine-tuning.md) guia.

## Escolhendo um LLM
<a name="llm-selection"></a>

[O Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/what-is-bedrock.html) é o ponto de partida recomendado para avaliar o alto desempenho LLMs. Para obter mais informações, consulte [Modelos de fundação compatíveis no Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/models-supported.html). Você pode usar trabalhos de avaliação de modelos no Amazon Bedrock para comparar as saídas de várias saídas e, em seguida, escolher o modelo mais adequado ao seu caso de uso. Para obter mais informações, consulte [Escolha o modelo de melhor desempenho usando as avaliações do Amazon Bedrock na documentação](https://docs.aws.amazon.com/bedrock/latest/userguide/model-evaluation.html) do Amazon Bedrock.

Alguns LLMs têm treinamento limitado em dados do domínio médico. [Se seu caso de uso exigir o ajuste fino de um LLM ou de um LLM que o Amazon Bedrock não suporta, considere usar o Amazon AI. SageMaker ](https://docs.aws.amazon.com/sagemaker/latest/dg/whatis.html) Na SageMaker IA, você pode usar um LLM ajustado ou escolher um LLM personalizado que tenha sido treinado em dados do domínio médico.

A tabela a seguir lista pessoas populares LLMs que foram treinadas em dados do domínio médico.


| 
| 
| LLM | Tarefas | Conhecimento | Arquitetura | 
| --- |--- |--- |--- |
| [BioBert](https://github.com/dmis-lab/biobert) | Recuperação de informações, classificação de texto e reconhecimento de entidade nomeada | Resumos de PubMed, artigos em texto completo e conhecimento geral do PubMedCentral domínio | Codificador | 
| [Clínica Albert](https://github.com/kexinhuang12345/clinicalBERT) | Recuperação de informações, classificação de texto e reconhecimento de entidade nomeada | Grande conjunto de dados multicêntrico, juntamente com mais de 3.000.000 de registros de pacientes de sistemas de prontuário eletrônico de saúde (EHR) | Codificador | 
| [GPT clínico](https://huggingface.co/medicalai/ClinicalGPT-base-zh) | Sumarização, resposta a perguntas e geração de texto | Conjuntos de dados médicos extensos e diversos, incluindo registros médicos, conhecimento específico do domínio e consultas de diálogo em várias rodadas | Decodificador | 
| [GatorTron-GO](https://catalog.ngc.nvidia.com/orgs/nvidia/teams/clara/models/gatortron_og) | Sumarização, resposta a perguntas, geração de texto e recuperação de informações | Notas clínicas e literatura biomédica | Codificador | 
| [Med-bert](https://github.com/ZhiGroup/Med-BERT) | Recuperação de informações, classificação de texto e reconhecimento de entidade nomeada | Grande conjunto de dados de textos médicos, notas clínicas, trabalhos de pesquisa e documentos relacionados à saúde | Codificador | 
| [Palmeira vermelha](https://sites.research.google/med-palm/) | Resposta a perguntas para fins médicos | Conjuntos de dados de textos médicos e biomédicos | Decodificador | 
| [Medalha Paca](https://github.com/kbressem/medAlpaca) | Tarefas de resposta a perguntas e diálogo médico | Uma variedade de textos médicos, abrangendo recursos como flashcards médicos, wikis e conjuntos de dados de diálogos | Decodificador | 
| [BioMedBert](https://huggingface.co/microsoft/BiomedNLP-BiomedBERT-base-uncased-abstract-fulltext) | Recuperação de informações, classificação de texto e reconhecimento de entidade nomeada | Exclusivamente resumos PubMed e artigos em texto completo de PubMedCentral | Codificador | 
| [BioMedLM](https://github.com/stanford-crfm/BioMedLM) | Sumarização, resposta a perguntas e geração de texto | Literatura biomédica a partir de fontes de PubMed conhecimento | Decodificador | 

A seguir estão as melhores práticas para o uso de médicos LLMs pré-treinados:
+ Entenda os dados de treinamento e sua relevância para sua tarefa médica de PNL.
+ Identifique a arquitetura LLM e sua finalidade. Os codificadores são apropriados para incorporações e tarefas de PNL. Os decodificadores são para tarefas de geração.
+ Avalie os requisitos de infraestrutura, desempenho e custo para hospedar o LLM médico pré-treinado.
+ Se for necessário um ajuste fino, garanta a veracidade ou o conhecimento precisos dos dados de treinamento. Certifique-se de mascarar ou redigir qualquer informação de identificação pessoal (PII) ou informação de saúde protegida (PHI).

As tarefas de PNL médica do mundo real podem ser diferentes das pré-treinadas LLMs em termos de conhecimento ou casos de uso pretendidos. Se um LLM específico de domínio não atender aos seus benchmarks de avaliação, você pode ajustar um LLM com seu próprio conjunto de dados ou treinar um novo modelo básico. Treinar um novo modelo de fundação é uma tarefa ambiciosa e, muitas vezes, cara. Para a maioria dos casos de uso, recomendamos ajustar um modelo existente.

Quando você usa ou ajusta um LLM médico pré-treinado, é importante abordar a infraestrutura, a segurança e as barreiras de proteção.

### Infraestrutura
<a name="llm-selection-infrastructure"></a>

Em comparação com o uso do Amazon Bedrock para inferência sob demanda ou em lote, hospedar LLMs médicos pré-treinados (geralmente da Hugging Face) requer recursos significativos. Para hospedar LLMs médicos pré-treinados, é comum usar uma imagem de SageMaker IA da Amazon que é executada em uma instância do Amazon Elastic Compute Cloud (Amazon EC2) com uma ou GPUs mais, como instâncias ml.g5 para computação acelerada ou instâncias ml.inf2 para. AWS Inferentia Isso ocorre porque LLMs consome uma grande quantidade de memória e espaço em disco.

### Segurança e grades de proteção
<a name="llm-selection-guardrails"></a>

Dependendo dos requisitos de conformidade da sua empresa, considere usar o Amazon Comprehend e o Amazon Comprehend Medical para mascarar ou redigir informações de identificação pessoal (PII) e informações de saúde protegidas (PHI) dos dados de treinamento. Isso ajuda a evitar que o LLM use dados confidenciais ao gerar respostas.

Recomendamos que você considere e avalie preconceitos, imparcialidade e alucinações em seus aplicativos generativos de IA. Se você estiver usando um LLM preexistente ou ajustando um, implemente grades de proteção para evitar respostas prejudiciais. As *grades* de proteção são proteções que você personaliza de acordo com seus requisitos generativos de aplicativos de IA e políticas de IA responsáveis. Por exemplo, você pode usar o [Amazon Bedrock Guardrails](https://docs.aws.amazon.com/bedrock/latest/userguide/guardrails.html).

# Ajustando grandes modelos de linguagem na área da saúde
<a name="fine-tuning"></a>

A abordagem de ajuste fino descrita nesta seção apóia a conformidade com as diretrizes éticas e regulatórias e promove o uso responsável dos sistemas de IA na área da saúde. Ele foi projetado para gerar insights precisos e privados. A IA generativa está revolucionando a prestação de serviços de saúde, mas off-the-shelf os modelos geralmente são insuficientes em ambientes clínicos em que a precisão é fundamental e a conformidade não é negociável. O ajuste fino dos modelos básicos com dados específicos do domínio preenche essa lacuna. Ele ajuda você a criar sistemas de IA que falam a linguagem da medicina e, ao mesmo tempo, cumprem padrões regulatórios rígidos. No entanto, o caminho para um ajuste fino bem-sucedido exige uma navegação cuidadosa pelos desafios exclusivos da área de saúde: proteger dados confidenciais, justificar investimentos em IA com resultados mensuráveis e manter a relevância clínica em cenários médicos em rápida evolução.

Quando abordagens mais leves atingem seus limites, o ajuste fino se torna um investimento estratégico. A expectativa é que os ganhos em precisão, latência ou eficiência operacional compensem os significativos custos de computação e engenharia necessários. É importante lembrar que o ritmo do progresso nos modelos básicos é rápido, portanto, a vantagem de um modelo ajustado pode durar apenas até o próximo grande lançamento do modelo.

Esta seção ancora a discussão nos dois casos de uso de alto impacto a seguir de clientes da AWS área de saúde:
+ **Sistemas de apoio à decisão clínica** — Melhore a precisão do diagnóstico por meio de modelos que compreendem histórias complexas de pacientes e diretrizes em evolução. O ajuste fino pode ajudar os modelos a entender profundamente os históricos complexos de pacientes e a integrar diretrizes especializadas. Isso pode reduzir potencialmente os erros de previsão do modelo. No entanto, você precisa pesar esses ganhos em relação ao custo do treinamento em conjuntos de dados grandes e confidenciais e à infraestrutura necessária para aplicações clínicas de alto risco. A maior precisão e a consciência do contexto justificarão o investimento, especialmente quando novos modelos são lançados com frequência?
+ **Análise de documentos médicos** — automatize o processamento de notas clínicas, relatórios de imagem e documentos de seguro, mantendo a conformidade com a Lei de Portabilidade e Responsabilidade de Seguros de Saúde (HIPAA). Aqui, o ajuste fino pode permitir que o modelo manipule formatos exclusivos, abreviações especializadas e requisitos regulatórios com mais eficiência. A recompensa geralmente é vista na redução do tempo de revisão manual e na melhoria da conformidade. Ainda assim, é essencial avaliar se essas melhorias são substanciais o suficiente para garantir os recursos de ajuste fino. Determine se a engenharia imediata e a orquestração do fluxo de trabalho podem atender às suas necessidades.

Esses cenários do mundo real ilustram a jornada de ajuste fino, desde a experimentação inicial até a implantação do modelo, ao mesmo tempo em que abordam os requisitos exclusivos da área de saúde em cada estágio.

## Estimativa de custos e retorno sobre o investimento
<a name="fine-tuning-costs"></a>

A seguir estão os fatores de custo que você deve considerar ao ajustar um LLM:
+ **Tamanho do modelo** — Modelos maiores custam mais para serem ajustados
+ **Tamanho do conjunto** de dados — Os custos e o tempo de computação aumentam com o tamanho do conjunto de dados para ajuste fino
+ **Estratégia de ajuste fino** — métodos eficientes em termos de parâmetros podem reduzir custos em comparação com atualizações completas de parâmetros

Ao calcular o retorno sobre o investimento (ROI), considere a melhoria nas métricas escolhidas (como precisão) multiplicada pelo volume de solicitações (com que frequência o modelo será usado) e a duração esperada antes que o modelo seja superado por versões mais recentes.

Além disso, considere a vida útil do seu LLM básico. Novos modelos básicos surgem a cada 6 a 12 meses. Se seu detector de doenças raras levar 8 meses para ser ajustado e validado, você poderá obter apenas 4 meses de desempenho superior antes que os modelos mais novos preencham a lacuna.

Ao calcular os custos, o ROI e a vida útil potencial do seu caso de uso, você pode tomar uma decisão baseada em dados. Por exemplo, se o ajuste fino de seu modelo de apoio à decisão clínica levar a uma redução mensurável nos erros de diagnóstico em milhares de casos por ano, o investimento poderá ser recompensado rapidamente. Por outro lado, se a engenharia imediata por si só aproximar seu fluxo de trabalho de análise de documentos da precisão desejada, talvez seja sensato adiar o ajuste fino até que a próxima geração de modelos chegue.

O ajuste fino não é. one-size-fits-all Se você decidir fazer um ajuste fino, a abordagem correta dependerá do seu caso de uso, dados e recursos.

## Escolhendo uma estratégia de ajuste fino
<a name="fine-tuning-strategy"></a>

Depois de determinar que o ajuste fino é a abordagem correta para seu caso de uso na área de saúde, a próxima etapa é selecionar a estratégia de ajuste fino mais adequada. Há várias abordagens disponíveis. Cada um tem vantagens e desvantagens distintas para aplicações de saúde. A escolha entre esses métodos depende de seus objetivos específicos, dos dados disponíveis e das restrições de recursos.

### Objetivos do treinamento
<a name="fine-tuning-strategy-training-objectives"></a>

O [pré-treinamento adaptativo ao domínio (DAPT)](https://arxiv.org/abs/2504.09687) é um método não supervisionado que envolve o pré-treinamento do modelo em um grande corpo de texto não rotulado e específico do domínio (como milhões de documentos médicos). Essa abordagem é adequada para melhorar a capacidade dos modelos de entender as abreviações de especialidades médicas e a terminologia usada por radiologistas, neurologistas e outros fornecedores especializados. No entanto, o DAPT requer grandes quantidades de dados e não aborda saídas de tarefas específicas.

O [ajuste fino supervisionado (SFT)](https://arxiv.org/abs/2506.14681) ensina o modelo a seguir instruções explícitas usando exemplos estruturados de entrada-saída. Essa abordagem é excelente para fluxos de trabalho de análise de documentos médicos, como resumo de documentos ou codificação clínica. O *ajuste de instruções* é uma forma comum de SFT em que o modelo é treinado em exemplos que incluem instruções explícitas emparelhadas com as saídas desejadas. Isso aumenta a capacidade do modelo de entender e seguir diversas instruções do usuário. Essa técnica é particularmente valiosa em ambientes de saúde porque treina o modelo com exemplos clínicos específicos. A principal desvantagem é que ele requer exemplos cuidadosamente rotulados. Além disso, o modelo ajustado pode ter problemas com casos extremos em que não há exemplos. Para obter instruções sobre o ajuste fino com o Amazon SageMaker Jumpstart, consulte [Ajuste fino de instruções para FLAN T5 XL com](https://aws.amazon.com/blogs/machine-learning/instruction-fine-tuning-for-flan-t5-xl-with-amazon-sagemaker-jumpstart/) o Amazon Jumpstart (postagem no blog). SageMaker AWS 

O [aprendizado por reforço a partir do feedback humano (RLHF)](https://aws.amazon.com/what-is/reinforcement-learning-from-human-feedback/) otimiza o comportamento do modelo com base no feedback e nas preferências dos especialistas. Use um modelo de recompensa treinado em preferências e métodos humanos, como otimização de [política proximal (PPO) ou otimização de [preferência direta (DPO)](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune-hyperpod-dpo.html)](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune-hyperpod-ppo.html), para otimizar o modelo e, ao mesmo tempo, evitar atualizações destrutivas. O RLHF é ideal para alinhar os resultados com as diretrizes clínicas e garantir que as recomendações permaneçam dentro dos protocolos aprovados. Essa abordagem exige um tempo significativo do médico para obter feedback e envolve um complexo fluxo de treinamento. No entanto, o RLHF é particularmente valioso na área da saúde porque ajuda especialistas médicos a moldar a forma como os sistemas de IA se comunicam e fazem recomendações. Por exemplo, os médicos podem fornecer feedback para garantir que o modelo mantenha uma postura adequada à beira do leito, saiba quando expressar incerteza e permaneça dentro das diretrizes clínicas. Técnicas como o PPO otimizam iterativamente o comportamento do modelo com base no feedback de especialistas, ao mesmo tempo que restringem as atualizações de parâmetros para preservar o conhecimento médico básico. Isso permite que os modelos transmitam diagnósticos complexos em uma linguagem amigável ao paciente e, ao mesmo tempo, sinalizem condições graves para atendimento médico imediato. Isso é crucial para a área da saúde, onde tanto a precisão quanto o estilo de comunicação são importantes. Para obter mais informações sobre o RLHF, consulte [Ajuste de modelos de linguagem grandes com aprendizado por reforço a partir de feedback humano ou de IA](https://aws.amazon.com/blogs/machine-learning/fine-tune-large-language-models-with-reinforcement-learning-from-human-or-ai-feedback/) (postagem no blog).AWS 

### Métodos de implementação
<a name="fine-tuning-strategy-implementation"></a>

Uma atualização *completa dos parâmetros envolve a atualização* de todos os parâmetros do modelo durante o treinamento. Essa abordagem funciona melhor para sistemas de apoio à decisão clínica que exigem uma integração profunda de históricos de pacientes, resultados de laboratório e diretrizes em evolução. As desvantagens incluem alto custo de computação e risco de sobreajuste se seu conjunto de dados não for grande e diversificado.

Os métodos [de ajuste fino com eficiência de parâmetros (PEFT)](https://arxiv.org/abs/2312.12148) atualizam somente um subconjunto de parâmetros para evitar ajustes excessivos ou uma perda catastrófica dos recursos da linguagem. Os tipos incluem [adaptação de baixa classificação (LoRa)](https://arxiv.org/abs/2106.09685), adaptadores e ajuste de prefixo. Os métodos PEFT oferecem menor custo computacional, treinamento mais rápido e são ótimos para experimentos, como adaptar um modelo de apoio à decisão clínica aos protocolos ou terminologia de um novo hospital. A principal limitação é o desempenho potencialmente reduzido em comparação com as atualizações completas dos parâmetros.

Para obter mais informações sobre métodos de ajuste fino, consulte Métodos [avançados de ajuste fino na Amazon SageMaker AI (AWS postagem no](https://aws.amazon.com/blogs/machine-learning/advanced-fine-tuning-methods-on-amazon-sagemaker-ai/) blog).

## Criando um conjunto de dados de ajuste fino
<a name="fine-tuning-dataset"></a>

A qualidade e a diversidade do conjunto de dados de ajuste fino são essenciais para modelar o desempenho, a segurança e a prevenção de preconceitos. A seguir estão três áreas críticas a serem consideradas ao criar esse conjunto de dados:
+ Volume baseado em uma abordagem de ajuste fino
+ Anotação de dados de um especialista no domínio
+ Diversidade do conjunto de dados

Conforme mostrado na tabela a seguir, os requisitos de tamanho do conjunto de dados para ajuste fino variam com base no tipo de ajuste fino que está sendo executado.


| 
| 
| **Estratégia de ajuste fino** | **Tamanho do conjunto de dados** | 
| --- |--- |
| Pré-treinamento adaptado ao domínio | Mais de 100.000 textos de domínio | 
| Ajuste fino supervisionado | Mais de 10.000 pares rotulados | 
| Aprendizagem por reforço a partir do feedback humano | Mais de 1.000 pares de preferências de especialistas | 

Você pode usar o [AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/what-is-glue.html)[Amazon EMR](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-what-is-emr.html) e o [Amazon SageMaker Data Wrangler](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler.html) para automatizar o processo de extração e transformação de dados para organizar um conjunto de dados que você possui. Se você não conseguir organizar um conjunto de dados grande o suficiente, poderá descobrir e baixar conjuntos de dados diretamente em seu formulário. Conta da AWS [AWS Data Exchange](https://docs.aws.amazon.com/data-exchange/latest/userguide/what-is.html) Consulte seu advogado antes de utilizar qualquer conjunto de dados de terceiros.

Anotadores especialistas com conhecimento de domínio, como médicos, biólogos e químicos, devem fazer parte do processo de curadoria de dados para incorporar as nuances dos dados médicos e biológicos na saída do modelo. [O Amazon SageMaker Ground Truth](https://docs.aws.amazon.com/sagemaker/latest/dg/sms.html) fornece uma interface de usuário low-code para que especialistas façam anotações no conjunto de dados.

Um conjunto de dados que represente a população humana é essencial para que os serviços de saúde e ciências da vida ajustem os casos de uso para evitar preconceitos e refletir os resultados do mundo real. [AWS Glue sessões interativas](https://docs.aws.amazon.com/glue/latest/dg/interactive-sessions-chapter.html) ou [instâncias de SageMaker notebooks da Amazon](https://docs.aws.amazon.com/sagemaker/latest/dg/nbi.html) oferecem uma maneira poderosa de explorar de forma iterativa conjuntos de dados e ajustar transformações usando notebooks compatíveis com o Jupyter. As sessões interativas permitem que você trabalhe com uma variedade de ambientes populares de desenvolvimento integrado (IDEs) em seu ambiente local. Como alternativa, você pode trabalhar com AWS Glue ou com notebooks [Amazon SageMaker Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html) por meio do Console de gerenciamento da AWS.

## Ajustando o modelo
<a name="fine-tuning-implementation"></a>

AWS fornece serviços como o [Amazon SageMaker AI e o Amazon](https://docs.aws.amazon.com/sagemaker/latest/dg/whatis.html) [Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/what-is-bedrock.html), que são cruciais para um ajuste fino bem-sucedido.

SageMaker A IA é um serviço de aprendizado de máquina totalmente gerenciado que ajuda desenvolvedores e cientistas de dados a criar, treinar e implantar modelos de ML rapidamente. Três recursos úteis da SageMaker IA para ajuste fino incluem:
+ [SageMakerTreinamento](https://docs.aws.amazon.com/sagemaker/latest/dg/train-model.html) — Um recurso de ML totalmente gerenciado que ajuda você a treinar com eficiência uma ampla variedade de modelos em grande escala
+ [SageMaker JumpStart](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-jumpstart.html)— Um recurso desenvolvido com base nos trabalhos de SageMaker treinamento para fornecer modelos pré-treinados, algoritmos integrados e modelos de soluções para tarefas de ML
+ [SageMaker HyperPod](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-hyperpod.html)— Uma solução de infraestrutura específica para treinamento distribuído de modelos básicos e LLMs

O Amazon Bedrock é um serviço totalmente gerenciado que fornece acesso a modelos básicos de alto desempenho por meio de uma API, com recursos integrados de segurança, privacidade e escalabilidade. O serviço oferece a capacidade de ajustar vários modelos básicos disponíveis. Para obter mais informações, consulte [Modelos e regiões compatíveis para ajuste fino e pré-treinamento contínuo](https://docs.aws.amazon.com/bedrock/latest/userguide/custom-model-supported.html) na documentação do Amazon Bedrock.

Ao abordar o processo de ajuste fino com qualquer um dos serviços, considere o modelo básico, a estratégia de ajuste fino e a infraestrutura.

### Escolha do modelo básico
<a name="base-model-choice.9ac49dfa-0d0f-5434-9ce4-383d4d601722"></a>

Modelos de código fechado, como Anthropic Claude, Meta Llama e Amazon Nova, oferecem forte out-of-the-box desempenho com conformidade gerenciada, mas limitam a flexibilidade de ajuste fino às opções suportadas pelo provedor, como gerenciadas como o Amazon Bedrock. APIs Isso restringe a personalização, especialmente para casos de uso regulamentados na área de saúde. Por outro lado, modelos de código aberto, como o Meta Llama, oferecem total controle e flexibilidade em todos os serviços de SageMaker IA da Amazon, tornando-os ideais quando você precisa personalizar, auditar ou adaptar profundamente um modelo aos seus requisitos específicos de dados ou fluxo de trabalho.

### Estratégia de ajuste fino
<a name="fine-tuning-strategy.5c89c2cc-a11b-5bbd-9b85-f487aafd92ed"></a>

O ajuste simples das instruções pode ser feito pela [personalização do modelo Amazon Bedrock ou](https://docs.aws.amazon.com/bedrock/latest/userguide/custom-models.html) pela Amazon. SageMaker JumpStart Abordagens PEFT complexas, como LoRa ou adaptadores, exigem trabalhos de SageMaker treinamento ou recursos personalizados de ajuste fino no Amazon Bedrock. O treinamento distribuído para modelos muito grandes é apoiado pelo SageMaker HyperPod.

### Escala e controle da infraestrutura
<a name="infrastructure-scale-and-control.cdf2ff70-3099-570b-a6ed-d7ae06a019a0"></a>

Serviços totalmente gerenciados, como o Amazon Bedrock, minimizam o gerenciamento da infraestrutura e são ideais para organizações que priorizam a facilidade de uso e a conformidade. Opções semigerenciadas, como SageMaker JumpStart, oferecem alguma flexibilidade com menos complexidade. Essas opções são adequadas para prototipagem rápida ou ao usar fluxos de trabalho pré-criados. O controle e a personalização totais vêm com os trabalhos de SageMaker treinamento e HyperPod, embora exijam mais experiência, são melhores quando você precisa expandir para grandes conjuntos de dados ou precisar de pipelines personalizados.

## Monitorando modelos ajustados
<a name="fine-tuning-monitoring"></a>

Em saúde e ciências biológicas, monitorar o ajuste fino do LLM requer o rastreamento de vários indicadores-chave de desempenho. A precisão fornece uma medida básica, mas isso deve ser balanceado com a precisão e o recall, especialmente em aplicações em que classificações erradas têm consequências significativas. A pontuação F1 ajuda a resolver problemas de desequilíbrio de classes que podem ser comuns em conjuntos de dados médicos. Para obter mais informações, consulte [Avaliação LLMs para aplicações em saúde e ciências biológicas](evaluation.md) neste guia.

As métricas de calibração ajudam você a garantir que os níveis de confiança do modelo correspondam às probabilidades do mundo real. [As métricas de imparcialidade](https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-measure-data-bias.html) podem ajudá-lo a detectar possíveis preconceitos em diferentes dados demográficos de pacientes.

[MLflow](https://docs.aws.amazon.com/sagemaker/latest/dg/mlflow.html)é uma solução de código aberto que pode ajudar você a monitorar experimentos de ajuste fino. MLflow tem suporte nativo na Amazon SageMaker AI, o que ajuda você a comparar visualmente as métricas das corridas de treinamento. Para trabalhos de ajuste fino no Amazon Bedrock, as métricas são transmitidas para a CloudWatch Amazon para que você possa visualizá-las no console. CloudWatch 