

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Generative KI- und NLP-Ansätze für das Gesundheitswesen und die Biowissenschaften
<a name="hcls-options"></a>

Natural Language Processing (NLP) ist eine Technologie für maschinelles Lernen, die es Computern ermöglicht, menschliche Sprache zu interpretieren, zu manipulieren und zu verstehen. Organisationen im Gesundheitswesen und in den Biowissenschaften verfügen über große Datenmengen aus Patientenakten. Sie können NLP-Software verwenden, um diese Daten automatisch zu verarbeiten. Sie können beispielsweise NLP mit generativer KI kombinieren, um die medizinische Kodierung zu optimieren, Patienteninformationen zu extrahieren und Aufzeichnungen zusammenzufassen.

Abhängig von der NLP-Aufgabe, die Sie ausführen möchten, sind unterschiedliche Architekturen möglicherweise am besten für Ihren Anwendungsfall geeignet. Dieser Leitfaden befasst sich mit den folgenden generativen KI- und NLP-Optionen für Anwendungen im Gesundheitswesen und in den Biowissenschaften in folgenden Bereichen: AWS
+ [Verwenden von Amazon Comprehend Medical](comprehend-medical.md)— Erfahren Sie, wie Sie Amazon Comprehend Medical unabhängig verwenden können, ohne es in ein großes Sprachmodell (LLM) zu integrieren.
+ [Kombination von Amazon Comprehend Medical mit großen Sprachmodellen](comprehend-medical-rag.md)— Erfahren Sie, wie Sie Amazon Comprehend Medical mit einem LLM in einer Retrieval Augment Generation (RAG) -Architektur kombinieren können.
+ [Verwendung umfangreicher Sprachmodelle für Anwendungsfälle im Gesundheitswesen und in den Biowissenschaften](llms.md)— Erfahren Sie, wie Sie ein LLM für Anwendungen im Gesundheitswesen und in den Biowissenschaften einsetzen können, entweder mithilfe einer fein abgestimmten LLM- oder einer RAG-Architektur.

# Verwenden von Amazon Comprehend Medical
<a name="comprehend-medical"></a>

[Amazon Comprehend Medical](https://docs.aws.amazon.com/comprehend-medical/latest/dev/comprehendmedical-welcome.html) erkennt und sendet nützliche Informationen in unstrukturiertem klinischem Text wie Arztnotizen, Zusammenfassungen von Entlassungen, Testergebnissen und Fallnotizen. AWS-Service Es verwendet Modelle zur Verarbeitung natürlicher Sprache (NLP), um Entitäten zu erkennen. *Entitäten* sind Textverweise auf medizinische Informationen wie Erkrankungen, Medikamente oder geschützte Gesundheitsinformationen (PHI).

**Wichtig**  
Amazon Comprehend Medical ist kein Ersatz für professionelle medizinische Beratung, Diagnose oder Behandlung. Amazon Comprehend Medical bietet Konfidenzwerte, die das Maß an Vertrauen in die Genauigkeit der erkannten Entitäten angeben. Identifizieren Sie den richtigen Konfidenzschwellenwert für Ihren Anwendungsfall, und verwenden Sie hohe Konfidenzschwellenwerte in Situationen, die eine hohe Genauigkeit erfordern. In bestimmten Anwendungsfällen sollten die Ergebnisse von entsprechend geschulten menschlichen Prüfern überprüft und verifiziert werden. Amazon Comprehend Medical sollte beispielsweise nur in Patientenversorgungsszenarien verwendet werden, nachdem es von geschultem medizinischem Fachpersonal auf Richtigkeit und fundiertes medizinisches Urteilsvermögen überprüft wurde.

Sie können auf Amazon Comprehend Medical über die AWS-Managementkonsole, die AWS Command Line Interface (AWS CLI) oder über die zugreifen. AWS SDKs Sie AWS SDKs sind für verschiedene Programmiersprachen und Plattformen wie Java, Python, Ruby, .NET, iOS und Android verfügbar. Sie können den verwenden SDKs , um programmgesteuert von Ihrer Client-Anwendung aus auf Amazon Comprehend Medical zuzugreifen.

In diesem Abschnitt werden die wichtigsten Funktionen von Amazon Comprehend Medical beschrieben. Außerdem werden die Vorteile dieses Dienstes im Vergleich zu einem Large Language Model (LLM) erörtert.

## Funktionen von Amazon Comprehend Medical
<a name="comprehend-medical-capabilities"></a>

Amazon Comprehend Medical bietet APIs nahezu Echtzeit- und Batch-Inferenzen. Diese APIs können medizinischen Text aufnehmen und Ergebnisse für medizinische NLP-Aufgaben liefern, indem sie medizinische Entitäten erkennen und Entitätsbeziehungen identifizieren. Sie können Analysen sowohl für einzelne Dateien als auch als Batch-Analyse für mehrere Dateien durchführen, die in einem Amazon Simple Storage Service (Amazon S3) -Bucket gespeichert sind. Amazon Comprehend Medical bietet die folgenden Textanalyse-API-Operationen für die synchrone Erkennung von Entitäten:
+ [Entitäten erkennen](https://docs.aws.amazon.com/comprehend-medical/latest/dev/textanalysis-entitiesv2.html) — Erkennt allgemeine medizinische Kategorien wie Anatomie, Gesundheitszustand, PHI-Kategorie, Verfahren und Zeitausdrücke.
+ [PHI erkennen](https://docs.aws.amazon.com/comprehend-medical/latest/dev/textanalysis-phi.html) — Erkennt bestimmte Entitäten wie Alter, Datum, Name und ähnliche persönliche Informationen.

Amazon Comprehend Medical umfasst auch mehrere API-Operationen, mit denen Sie Batch-Textanalysen für klinische Dokumente durchführen können. Weitere Informationen zur Verwendung dieser API-Operationen finden Sie unter Batch [zur Textanalyse](https://docs.aws.amazon.com/comprehend-medical/latest/dev/textanalysis-batchapi.html). APIs

Verwenden Sie Amazon Comprehend Medical, um Entitäten in klinischem Text zu erkennen und diese Entitäten mit Konzepten in standardisierten medizinischen Ontologien zu verknüpfen, einschließlich der RxNorm Wissensdatenbanken ICD-10-CM und SNOMED CT. Sie können Analysen sowohl für einzelne Dateien als auch als Batch-Analyse für große Dokumente oder mehrere Dateien durchführen, die in einem Amazon S3 S3-Bucket gespeichert sind. Amazon Comprehend Medical bietet die folgende ontologische Verknüpfung von API-Operationen:
+ [Infer ICD10 CM](https://docs.aws.amazon.com/comprehend-medical/latest/dev/ontology-icd10.html) — Die **Infer ICD10 CM-Operation** erkennt potenzielle Erkrankungen und verknüpft sie mit Codes aus der Version 2019 der Internationalen Klassifikation der Krankheiten, 10. Revision, Klinische Änderung (ICD-10-CM). Für jede festgestellte potenzielle Erkrankung listet Amazon Comprehend Medical die entsprechenden ICD-10-CM-Codes und Beschreibungen auf. Zu den in den Ergebnissen aufgelisteten Erkrankungen gehört ein Konfidenzwert, der das Vertrauen angibt, das Amazon Comprehend Medical in die Genauigkeit der Entitäten und der übereinstimmenden Konzepte in den Ergebnissen hat.
+ [InferRxNorm](https://docs.aws.amazon.com/comprehend-medical/latest/dev/ontology-RxNorm.html)— Die **InferRxNorm**Operation identifiziert Medikamente, die in einer Patientenakte als Entitäten aufgeführt sind. Dabei werden Entitäten mit Konzeptkennungen (RxCUI) aus der RxNorm Datenbank der National Library of Medicine verknüpft. Jeder RxCUI ist für unterschiedliche Stärken und Darreichungsformen einzigartig. Die in den Ergebnissen aufgelisteten Medikamente enthalten einen Konfidenzwert, der das Vertrauen von Amazon Comprehend Medical in die Genauigkeit der Entitäten angibt, die den Konzepten aus der RxNorm Wissensdatenbank zugeordnet wurden. Amazon Comprehend Medical listet die Top Rx aufCUIs , die möglicherweise für jedes erkannte Medikament in absteigender Reihenfolge auf, basierend auf dem Vertrauenswert.
+ [InfersnoMedCT](https://docs.aws.amazon.com/comprehend-medical/latest/dev/ontology-linking-snomed.html) — Die Operation **InfersnoMedCT identifiziert mögliche medizinische Konzepte als Entitäten und verknüpft sie mit Codes aus der Version 2021-03 der Systematized Nomenclature of Medicine, Clinical Terms (SNOMED CT**). SNOMED CT bietet ein umfassendes Vokabular medizinischer Konzepte, einschließlich Erkrankungen und Anatomie sowie medizinischer Tests, Behandlungen und Verfahren. Für jede übereinstimmende Konzept-ID gibt Amazon Comprehend Medical die fünf besten medizinischen Konzepte zurück, jeweils mit einem Konfidenzwert und Kontextinformationen wie Merkmalen und Attributen. Das SNOMED-CT-Konzept IDs kann dann verwendet werden, um klinische Patientendaten für die medizinische Kodierung, Berichterstattung oder klinische Analysen zu strukturieren, wenn es mit der SNOMED-CT-Polyhierarchie verwendet wird.

Weitere Informationen finden Sie unter [Textanalyse APIs](https://docs.aws.amazon.com/comprehend-medical/latest/dev/comprehendmedical-textanalysis.html) und [Ontologie-Verknüpfung APIs](https://docs.aws.amazon.com/comprehend-medical/latest/dev/comprehendmedical-ontologies.html) in der Amazon Comprehend Medical Medical-Dokumentation.

## Anwendungsfälle für Amazon Comprehend Medical
<a name="comprehend-medical-use-cases"></a>

Als eigenständiger Service kann Amazon Comprehend Medical auf den Anwendungsfall Ihres Unternehmens zugeschnitten sein. Amazon Comprehend Medical kann Aufgaben wie die folgenden ausführen:
+ Hilfe bei der medizinischen Kodierung in Patientenakten
+ Erkennen Sie geschützte Gesundheitsinformationsdaten (PHI)
+ Validierung von Medikamenten, einschließlich Eigenschaften wie Dosierung, Häufigkeit und Form

Die Ergebnisse von Amazon Comprehend Medical sind für die meisten Arztpraxen leicht verdaulich. Möglicherweise müssen Sie jedoch Alternativen in Betracht ziehen, wenn Sie Einschränkungen wie die folgenden haben:
+ **Verschiedene Entitätsdefinitionen** — Ihre Definition einer `FREQUENCY` Medikamentenentität kann beispielsweise unterschiedlich sein. Für die Häufigkeit prognostiziert Amazon Comprehend Medical *nach Bedarf*, aber Ihre Organisation verwendet möglicherweise den Begriff *Pro re Nata* (PRN).
+ **Überwältigende Menge an Ergebnissen** — Patientennotizen enthalten beispielsweise häufig mehrere Symptome und Stichwörter, die mehreren ICD-10-CM-Codes zugeordnet sind. Einige der Schlüsselwörter sind jedoch nicht für die Diagnose geeignet. In diesem Fall muss der Anbieter zahlreiche ICD-10-CM-Entitäten und ihre Konfidenzwerte bewerten, was eine manuelle Verarbeitungszeit erfordert.
+ **Benutzerdefinierte Entitäten oder NLP-Aufgaben** — Anbieter könnten zum Beispiel PRN-Beweise extrahieren wollen, etwa bei Bedarf gegen Schmerzen*.* Da dies nicht über Amazon Comprehend Medical erhältlich ist, ist ein anderes AI/ML Modell garantiert. Eine andere AI/ML Lösung ist erforderlich, wenn die NLP-Aufgabe außerhalb der Entitätenerkennung liegt, z. B. Zusammenfassung, Beantwortung von Fragen und Stimmungsanalyse.

# Kombination von Amazon Comprehend Medical mit großen Sprachmodellen
<a name="comprehend-medical-rag"></a>

Eine [Studie von NEJM AI aus dem Jahr 2024](https://ai.nejm.org/doi/pdf/10.1056/AIdbp2300040) zeigte, dass die Verwendung eines LLM mit Null-Shot-Aufforderung für medizinische Codierungsaufgaben im Allgemeinen zu einer schlechten Leistung führt. Die Verwendung von Amazon Comprehend Medical mit einem LLM kann dazu beitragen, diese Leistungsprobleme zu verringern. Die Ergebnisse von Amazon Comprehend Medical sind ein hilfreicher Kontext für ein LLM, das NLP-Aufgaben ausführt. Wenn Sie beispielsweise Kontext von Amazon Comprehend Medical zum großen Sprachmodell bereitstellen, können Sie Folgendes erreichen:
+ Verbessern Sie die Genauigkeit der Entitätsauswahl, indem Sie die ersten Ergebnisse von Amazon Comprehend Medical als Kontext für das LLM verwenden
+ Implementieren Sie benutzerdefinierte Entitätenerkennung, Zusammenfassung, Beantwortung von Fragen und weitere Anwendungsfälle

In diesem Abschnitt wird beschrieben, wie Sie Amazon Comprehend Medical mit einem LLM kombinieren können, indem Sie einen Retrieval Augmented Generation (RAG) -Ansatz verwenden. *Retrieval Augmented Generation (RAG)* ist eine generative KI-Technologie, bei der ein LLM auf eine maßgebliche Datenquelle verweist, die sich außerhalb seiner Trainingsdatenquellen befindet, bevor es eine Antwort generiert. Weitere Informationen finden Sie unter [Was ist](https://aws.amazon.com/what-is/retrieval-augmented-generation/) RAG.

Zur Veranschaulichung dieses Ansatzes wird in diesem Abschnitt das Beispiel der medizinischen (Diagnose-) Kodierung im Zusammenhang mit ICD-10-CM verwendet. Es enthält eine Beispielarchitektur und schnelle technische Vorlagen, mit denen Sie Ihre Innovation beschleunigen können. Es enthält auch bewährte Methoden für die Verwendung von Amazon Comprehend Medical innerhalb eines RAG-Workflows.

## RAG-basierte Architektur mit Amazon Comprehend Medical
<a name="comprehend-medical-rag-architecture"></a>

Das folgende Diagramm veranschaulicht einen RAG-Ansatz zur Identifizierung von ICD-10-CM-Diagnosecodes anhand von Patientennotizen. Es verwendet Amazon Comprehend Medical als Wissensquelle. Bei einem RAG-Ansatz ruft die Abrufmethode üblicherweise Informationen aus einer Vektordatenbank ab, die anwendbares Wissen enthält. Anstelle einer Vektordatenbank verwendet diese Architektur Amazon Comprehend Medical für die Abrufaufgabe. Der Orchestrator sendet die Patientennotizen an Amazon Comprehend Medical und ruft die ICD-10-CM-Codeinformationen ab. Der Orchestrator sendet diesen Kontext über Amazon Bedrock an das Downstream Foundation Model (LLM). Das LLM generiert mithilfe der ICD-10-CM-Codeinformationen eine Antwort, und diese Antwort wird an die Client-Anwendung zurückgesendet.

![\[Ein RAG-Workflow, der Amazon Comprehend Medical als Wissensquelle verwendet.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/generative-ai-nlp-healthcare/images/architecture-comprehend-medical-rag-workflow.png)


Das Diagramm zeigt den folgenden RAG-Workflow:

1. Die Client-Anwendung sendet die Patientennotizen als Anfrage an den Orchestrator. Ein Beispiel für diese Patientennotizen könnte lauten: „Bei der Patientin handelt es sich um eine 71-jährige Patientin von Dr. X. Die Patientin wurde gestern Abend in die Notaufnahme gebracht und hatte in der Anamnese etwa 7 bis 8 Tage lang anhaltende Bauchschmerzen. Sie hatte kein definitives Fieber oder Schüttelfrost und keine Gelbsucht in der Vorgeschichte. Die Patientin bestreitet, in letzter Zeit signifikant abgenommen zu haben.“

1. Der Orchestrator verwendet Amazon Comprehend Medical, um ICD-10-CM-Codes abzurufen, die für die medizinischen Informationen in der Abfrage relevant sind. Er verwendet die **Infer ICD10 CM-API, um die ICD-10-CM-Codes** aus den Patientennotizen zu extrahieren und abzuleiten.

1. Der Orchestrator erstellt eine Aufforderung, die die Eingabeaufforderungsvorlage, die ursprüngliche Abfrage und die von Amazon Comprehend Medical abgerufenen ICD-10-CM-Codes enthält. Es sendet diesen erweiterten Kontext an Amazon Bedrock.

1. Amazon Bedrock verarbeitet die Eingabe und generiert anhand eines Fundamentmodells eine Antwort, die die ICD-10-CM-Codes und die entsprechenden Beweise aus der Abfrage enthält. Die generierte Antwort umfasst die identifizierten ICD-10-CM-Codes und Nachweise aus den Patientenakten, die jeden Code belegen. Das folgende Beispiel zeigt eine mögliche Antwort:

   ```
   <response>
   <icd10>
   <code>R10.9</code>
   <evidence>history of abdominal pain</evidence>
   </icd10>
   <icd10>
   <code>R10.30</code>
   <evidence>history of abdominal pain</evidence>
   </icd10>
   </response>
   ```

1. Amazon Bedrock sendet die generierte Antwort an den Orchestrator.

1. Der Orchestrator sendet die Antwort zurück an die Client-Anwendung, wo der Benutzer die Antwort überprüfen kann.

## Anwendungsfälle für die Verwendung von Amazon Comprehend Medical in einem RAG-Workflow
<a name="comprehend-medical-rag-use-cases"></a>

Amazon Comprehend Medical kann bestimmte NLP-Aufgaben ausführen. Weitere Informationen finden Sie unter [Anwendungsfälle für Amazon Comprehend Medical](comprehend-medical.md#comprehend-medical-use-cases).

Möglicherweise möchten Sie Amazon Comprehend Medical in einen RAG-Workflow für erweiterte Anwendungsfälle integrieren, z. B. für die folgenden:
+ Generieren Sie detaillierte klinische Zusammenfassungen, indem Sie extrahierte medizinische Entitäten mit Kontextinformationen aus Patientenakten kombinieren
+ Automatisieren Sie die medizinische Kodierung für komplexe Fälle, indem Sie extrahierte Entitäten mit ontologiebezogenen Informationen für die Codezuweisung verwenden
+ Automatisieren Sie die Erstellung strukturierter klinischer Notizen aus unstrukturiertem Text mithilfe extrahierter medizinischer Entitäten
+ Analysieren Sie Nebenwirkungen von Medikamenten anhand der Namen und Eigenschaften der extrahierten Medikamente
+ Entwickeln Sie intelligente klinische Unterstützungssysteme, die extrahierte medizinische Informationen mit up-to-date Forschungsergebnissen und Leitlinien kombinieren

## Bewährte Methoden für die Verwendung von Amazon Comprehend Medical in einem RAG-Workflow
<a name="comprehend-medical-rag-best-practices"></a>

Bei der Integration der Ergebnisse von Amazon Comprehend Medical in eine Aufforderung zur Einreichung eines LLM ist es wichtig, die Best Practices zu befolgen. Dies kann die Leistung und Genauigkeit verbessern. Im Folgenden finden Sie die wichtigsten Empfehlungen:
+ **Verstehen Sie die Vertrauenswerte von Amazon Comprehend Medical** — Amazon Comprehend Medical bietet Konfidenzwerte für jede erkannte Entität und Ontologieverknüpfung. Es ist wichtig, die Bedeutung dieser Werte zu verstehen und geeignete Schwellenwerte für Ihren spezifischen Anwendungsfall festzulegen. Konfidenzwerte helfen dabei, Entitäten mit geringer Zuverlässigkeit herauszufiltern, das Rauschen zu reduzieren und die Qualität der LLM-Eingaben zu verbessern.
+ **Verwenden Sie Konfidenzwerte in der Prompt-Technik** — Ziehen Sie bei der Erstellung von Aufforderungen für das LLM in Betracht, Amazon Comprehend Medical Confidence Scores als zusätzlichen Kontext einzubeziehen. Dies hilft dem LLM, Unternehmen anhand ihres Konfidenzniveaus zu priorisieren oder abzuwägen, wodurch möglicherweise die Qualität der Ergebnisse verbessert wird.
+ **Bewerten Sie die Ergebnisse von Amazon Comprehend Medical mit Ground-Truth-Daten** — *Ground-Truth-Daten* sind Informationen, von denen bekannt ist, dass sie wahr sind. Sie können verwendet werden, um zu überprüfen, ob eine AI/ML Anwendung genaue Ergebnisse liefert. Bevor Sie die Ergebnisse von Amazon Comprehend Medical in Ihren LLM-Workflow integrieren, bewerten Sie die Leistung des Services anhand einer repräsentativen Stichprobe Ihrer Daten. Vergleichen Sie die Ergebnisse mit Ground-Truth-Anmerkungen, um mögliche Unstimmigkeiten oder Verbesserungsmöglichkeiten zu identifizieren. Diese Bewertung hilft Ihnen, die Stärken und Grenzen von Amazon Comprehend Medical für Ihren Anwendungsfall zu verstehen.
+ **Strategisch relevante Informationen auswählen** — Amazon Comprehend Medical kann eine große Menge an Informationen bereitstellen, aber möglicherweise sind nicht alle für Ihre Aufgabe relevant. Wählen Sie sorgfältig die Entitäten, Attribute und Metadaten aus, die für Ihren Anwendungsfall am relevantesten sind. Wenn Sie dem LLM zu viele irrelevante Informationen zur Verfügung stellen, kann dies zu Störungen und möglicherweise zu Leistungseinbußen führen.
+ **Entitätsdefinitionen aufeinander abstimmen** — Stellen Sie sicher, dass die Definitionen von Entitäten und Attributen, die von Amazon Comprehend Medical verwendet werden, mit Ihrer Interpretation übereinstimmen. Wenn es Unstimmigkeiten gibt, sollten Sie erwägen, dem LLM zusätzlichen Kontext oder Erläuterungen zur Verfügung zu stellen, um die Lücke zwischen den Ergebnissen von Amazon Comprehend Medical und Ihren Anforderungen zu schließen. Wenn die Amazon Comprehend Medical Medical-Einheit Ihre Erwartungen nicht erfüllt, können Sie eine benutzerdefinierte Entitätenerkennung implementieren, indem Sie zusätzliche Anweisungen (und mögliche Beispiele) in die Aufforderung einfügen.
+ **Stellen Sie domänenspezifisches Wissen** bereit — Amazon Comprehend Medical bietet zwar wertvolle medizinische Informationen, erfasst aber möglicherweise nicht alle Nuancen Ihres spezifischen Fachgebiets. Erwägen Sie, die Ergebnisse von Amazon Comprehend Medical durch zusätzliche domänenspezifische Wissensquellen wie Ontologien, Terminologien oder von Experten kuratierte Datensätze zu ergänzen. Dies bietet einen umfassenderen Kontext für das LLM.
+ **Einhaltung ethischer und regulatorischer Richtlinien** — Beim Umgang mit medizinischen Daten ist es wichtig, ethische Grundsätze und regulatorische Richtlinien einzuhalten, beispielsweise in Bezug auf Datenschutz, Sicherheit und verantwortungsvollen Umgang mit KI-Systemen im Gesundheitswesen. Stellen Sie sicher, dass Ihre Implementierung den geltenden Gesetzen und bewährten Verfahren der Branche entspricht.

Durch die Befolgung dieser bewährten Methoden können AI/ML Praktiker die Stärken von Amazon Comprehend Medical und effektiv nutzen. LLMs Bei medizinischen NLP-Aufgaben tragen diese bewährten Methoden dazu bei, potenzielle Risiken zu minimieren und die Leistung zu verbessern.

## Promptes Engineering für den medizinischen Kontext von Amazon Comprehend
<a name="comprehend-medical-rag-prompt-engineering"></a>

Promptes [Engineering ist der Prozess, bei dem Eingabeaufforderungen](https://aws.amazon.com/what-is/prompt-engineering/) entworfen und verfeinert werden, um eine generative KI-Lösung zur Generierung der gewünschten Ergebnisse zu leiten. Sie wählen die am besten geeigneten Formate, Ausdrücke, Wörter und Symbole aus, anhand derer die KI sinnvoller mit Ihren Benutzern interagieren kann.

Abhängig von der API-Operation, die Sie ausführen, gibt Amazon Comprehend Medical die erkannten Entitäten, Ontologiecodes und Beschreibungen sowie Konfidenzwerte zurück. Diese Ergebnisse werden innerhalb der Aufforderung zum Kontext, wenn Ihre Lösung das Ziel-LLM aufruft. Sie müssen die Eingabeaufforderung so gestalten, dass der Kontext in der Eingabeaufforderungsvorlage dargestellt wird.

**Anmerkung**  
Die Beispiel-Eingabeaufforderungen in diesem Abschnitt folgen [anthropischen Leitlinien](https://docs.anthropic.com/en/docs/build-with-claude/prompt-engineering/overview). Wenn Sie einen anderen LLM-Anbieter verwenden, befolgen Sie die Empfehlungen dieses Anbieters.

Im Allgemeinen fügen Sie sowohl den medizinischen Originaltext als auch die Ergebnisse von Amazon Comprehend Medical in die Aufforderung ein. Im Folgenden finden Sie eine allgemeine Eingabeaufforderungsstruktur:

```
<medical_text>
medical text
</medical_text>

<comprehend_medical_text_results>
comprehend medical text results
</comprehend_medical_text_results>

<prompt_instructions>
prompt instructions
</prompt_instructions>
```

Dieser Abschnitt enthält Strategien, um die Ergebnisse von Amazon Comprehend Medical als sofortigen Kontext für die folgenden allgemeinen medizinischen NLP-Aufgaben einzubeziehen:
+ [Amazon Comprehend Medical Medical-Ergebnisse filtern](#prompt-engineering-filter-results)
+ [Erweitern Sie medizinische NLP-Aufgaben mit Amazon Comprehend Medical](#prompt-engineering-extend-nlp)
+ [Wenden Sie Leitplanken mit Amazon Comprehend Medical an](#prompt-engineering-guardrails)

### Amazon Comprehend Medical Medical-Ergebnisse filtern
<a name="prompt-engineering-filter-results"></a>

Amazon Comprehend Medical stellt in der Regel eine große Menge an Informationen bereit. Möglicherweise möchten Sie die Anzahl der Ergebnisse reduzieren, die der Arzt überprüfen muss. In diesem Fall können Sie ein LLM verwenden, um diese Ergebnisse zu filtern. Die Entitäten von Amazon Comprehend Medical enthalten einen Konfidenzwert, den Sie bei der Gestaltung der Aufforderung als Filtermechanismus verwenden können.

Im Folgenden finden Sie ein Beispiel für eine Patientennotiz:

```
Carlie had a seizure 2 weeks ago. She is complaining of frequent headaches
Nausea is also present. She also complains of eye trouble with blurry vision
Meds : Topamax 50 mgs at breakfast daily,
Send referral order to neurologist
Follow-up as scheduled
```

In dieser Patientennotiz erkennt Amazon Comprehend Medical die folgenden Entitäten.

![\[Erkennung von Entitäten in Amazon Comprehend Medical.\]](http://docs.aws.amazon.com/de_de/prescriptive-guidance/latest/generative-ai-nlp-healthcare/images/comprehend-medical-entity-detection.png)


Die Entitäten verweisen auf die folgenden ICD-10-CM-Codes für Anfälle und Kopfschmerzen.


| 
| 
| Kategorie | ICD-10-CM-Code | ICD-10-CM-Beschreibung | Zuverlässigkeitswert | 
| --- |--- |--- |--- |
| Anfall | R56.9 | Nicht näher bezeichnete Krämpfe | 0,8348 | 
| Anfall | G40.909 | Epilepsie, nicht näher bezeichnet, nicht hartnäckig, ohne Status epilepticus | 0,5424 | 
| Anfall | R56,00 | Einfache Fieberkrämpfe | 0,4937 | 
| Anfall | G40.09 | Andere Anfälle | 0,4397 | 
| Anfall | G40.409 | Sonstige generalisierte Epilepsie und epileptische Syndrome, nicht behandelbar, ohne Status epilepticus | 0,4138 | 
| Kopfschmerzen | R51 | Kopfschmerzen | 0,4067 | 
| Kopfschmerzen | R51.9 | Kopfschmerzen, nicht näher bezeichnet | 0,3844 | 
| Kopfschmerzen | G44.52 | Neue tägliche anhaltende Kopfschmerzen (NDPH) | 0,3005 | 
| Kopfschmerzen | G44 | Anderes Kopfschmerzsyndrom | 0,2670 | 
| Kopfschmerzen | G44.8 | Andere näher bezeichnete Kopfschmerzsyndrome | 0,2542 | 

Sie können ICD-10-CM-Codes an die Eingabeaufforderung übergeben, um die LLM-Präzision zu erhöhen. Um das Rauschen zu reduzieren, können Sie die ICD-10-CM-Codes anhand des Konfidenzwerts filtern, der in den Ergebnissen von Amazon Comprehend Medical enthalten ist. Im Folgenden finden Sie ein Beispiel für eine Eingabeaufforderung, die nur ICD-10-CM-Codes mit einem Konfidenzwert von mehr als 0,4 enthält:

```
<patient_note>
Carlie had a seizure 2 weeks ago. She is complaining of frequent headaches
Nausea is also present. She also complains of eye trouble with blurry vision
Meds : Topamax 50 mgs at breakfast daily,
Send referral order to neurologist
Follow-up as scheduled
</patient_note>

<comprehend_medical_results>
<icd-10>
  <entity>
    <text>seizure</text>
    <code>
      <description>Unspecified convulsions</description>
      <code_value>R56.9</code_value>
      <score>0.8347607851028442</score>
    </code>
    <code>
      <description>Epilepsy, unspecified, not intractable, without status epilepticus</description>
      <code_value>G40.909</code_value>
      <score>0.542376697063446</score>
    </code>
    <code>
      <description>Other seizures</description>
      <code_value>G40.89</code_value>
      <score>0.43966275453567505</score>
    </code>
    <code>
      <description>Other generalized epilepsy and epileptic syndromes, not intractable, without status epilepticus</description>
      <code_value>G40.409</code_value>
      <score>0.41382506489753723</score>
    </code>
  </entity>
  <entity>
    <text>headaches</text>
    <code>
      <description>Headache</description>
      <code_value>R51</code_value>
      <score>0.4066613018512726</score>
    </code>
  </entity>
  <entity>
    <text>Nausea</text>
    <code>
      <description>Nausea</description>
      <code_value>R11.0</code_value>
      <score>0.6460834741592407</score>
    </code>
  </entity>
  <entity>
    <text>eye trouble</text>
    <code>
      <description>Unspecified disorder of eye and adnexa</description>
      <code_value>H57.9</code_value>
      <score>0.6780954599380493</score>
    </code>
    <code>
      <description>Unspecified visual disturbance</description>
      <code_value>H53.9</code_value>
      <score>0.5871203541755676</score>
    </code>
    <code>
      <description>Unspecified disorder of binocular vision</description>
      <code_value>H53.30</code_value>
      <score>0.5539672374725342</score>
    </code>
  </entity>
  <entity>
    <text>blurry vision</text>
    <code>
      <description>Other visual disturbances</description>
      <code_value>H53.8</code_value>
      <score>0.9001834392547607</score>
    </code>
  </entity>
</icd-10>
</comprehend_medical_results>

<prompt>
Given the patient note and Amazon Comprehend Medical ICD-10-CM code results above, please select the most relevant ICD-10-CM diagnosis codes for the patient. 
For each selected code, provide a brief explanation of why it is relevant based on the information in the patient note.
</prompt>
```

### Erweitern Sie medizinische NLP-Aufgaben mit Amazon Comprehend Medical
<a name="prompt-engineering-extend-nlp"></a>

Bei der Verarbeitung von medizinischem Text kann der Kontext von Amazon Comprehend Medical dem LLM helfen, bessere Token auszuwählen. In diesem Beispiel möchten Sie die Diagnosesymptome den Medikamenten zuordnen. Sie möchten auch Text finden, der sich auf medizinische Tests bezieht, z. B. Begriffe, die sich auf einen Bluttest beziehen. Sie können Amazon Comprehend Medical verwenden, um die Entitäten und Medikamentennamen zu ermitteln. In diesem Fall würden Sie [DetectEntitiesV2](https://docs.aws.amazon.com/comprehend-medical/latest/dev/textanalysis-entitiesv2.html) und [InferRxNorm](https://docs.aws.amazon.com/comprehend-medical/latest/dev/ontology-RxNorm.html) APIs Amazon Comprehend Medical verwenden.

Im Folgenden finden Sie ein Beispiel für eine Patientennotiz:

```
Carlie had a seizure 2 weeks ago. She is complaining of increased frequent headaches
Given lyme disease symptoms such as muscle ache and stiff neck will order prescription.
Meds : Topamax 50 mgs at breakfast daily. Amoxicillan 25 mg by mouth twice a day
Place MRI radiology order at RadNet
```

Um den Fokus auf den Diagnosecode zu legen, werden in der Eingabeaufforderung nur die Entitäten verwendet, die `DX_NAME` sich auf den Typ beziehen. `MEDICAL_CONDITION` Andere Metadaten sind aufgrund ihrer Irrelevanz ausgeschlossen. Bei Medikamenten-Entitäten ist der Name des Medikaments zusammen mit den extrahierten Attributen enthalten. Andere Metadaten von Arzneimittelentitäten von Amazon Comprehend Medical sind aufgrund ihrer Irrelevanz ausgeschlossen. Die folgende Beispielaufforderung verwendet gefilterte Amazon Comprehend Medical Medical-Ergebnisse. Die Eingabeaufforderung konzentriert sich auf `MEDICAL_CONDITION` Entitäten mit dem `DX_NAME` Typ. Diese Aufforderung dient dazu, Diagnosecodes genauer mit Medikamenten zu verknüpfen und medizinische Tests genauer zu extrahieren:

```
<patient_note>
Carlie had a seizure 2 weeks ago. She is complaining of increased freqeunt headaches
Given lyme disease symptoms such as muscle ache and stiff neck will order prescription. 
Meds : Topamax 50 mgs at breakfast daily. Amoxicillan 25 mg by mouth twice a day
Place MRI radiology order at RadNet
</patient_note>

<detect_entity_results>
<entity>
    <text>seizure</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
<entity>
    <text>headaches</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
<entity>
    <text>lyme disease</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
<entity>
    <text>muscle ache</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
<entity>
    <text>stiff neck</text>
    <category>MEDICAL_CONDITION</category>
    <type>DX_NAME</type>
</entity>
</detect_entity_results>

<rx_results>
<entity>
    <text>Topamax</text>
    <category>MEDICATION</category>
    <type>BRAND_NAME</type>
    <attributes>
        <attribute>
            <type>FREQUENCY</type>
            <text>at breakfast daily</text>
        </attribute>
        <attribute>
            <type>DOSAGE</type>
            <text>50 mgs</text>
        </attribute>
        <attribute>
            <type>ROUTE_OR_MODE</type>
            <text>by mouth</text>
        </attribute>
    </attributes>
</entity>
<entity>
    <text>Amoxicillan</text>
    <category>MEDICATION</category>
    <type>GENERIC_NAME</type>
    <attributes>
        <attribute>
            <type>ROUTE_OR_MODE</type>
            <text>by mouth</text>
        </attribute>
        <attribute>
            <type>DOSAGE</type>
            <text>25 mg</text>
        </attribute>
        <attribute>
            <type>FREQUENCY</type>
            <text>twice a day</text>
        </attribute>
    </attributes>
</entity>
</rx_results>

<prompt>
Based on the patient note and the detected entities, can you please:
1. Link the diagnosis symptoms with the medications prescribed. 
Provide your reasoning for the linkages.
2. Extract any entities related to medical order tests mentioned in the note.
</prompt>
```

### Wenden Sie Leitplanken mit Amazon Comprehend Medical an
<a name="prompt-engineering-guardrails"></a>

Sie können ein LLM und Amazon Comprehend Medical verwenden, um Leitplanken zu erstellen, bevor die generierte Antwort verwendet wird. Sie können diesen Workflow entweder für unveränderten oder für nachbearbeiteten medizinischen Text ausführen. Zu den Anwendungsfällen gehören der Umgang mit geschützten Gesundheitsinformationen (PHI), die Erkennung von Halluzinationen oder die Implementierung benutzerdefinierter Richtlinien für die Veröffentlichung von Ergebnissen. Sie können beispielsweise den Kontext von Amazon Comprehend Medical verwenden, um PHI-Daten zu identifizieren, und dann das LLM verwenden, um diese PHI-Daten zu entfernen.

Im Folgenden finden Sie ein Beispiel für Informationen aus einer Patientenakte, die PHI enthalten:

```
Patient name: John Doe
Patient SSN: 123-34-5678
Patient DOB: 01/01/2024
Patient address: 123 Main St, Anytown USA
Exam details: good health. Pulse is 60 bpm. needs to work on diet with BMI of 190
```

Im Folgenden finden Sie eine Beispielaufforderung, die die Ergebnisse von Amazon Comprehend Medical als Kontext enthält:

```
<original_text>
Patient name: John Doe
Patient SSN: 123-34-5678 Patient DOB: 01/01/2024
Patient address: 123 Main St, Anytown USA
Exam details: good health. Pulse is 60 bpm. needs to work on diet with BMI of 190
</original_text>

<comprehend_medical_phi_entities>
<entity>
  <text>John Doe</text>
  <category>PROTECTED_HEALTH_INFORMATION</category>
  <score>0.9967944025993347</score>
  <type>NAME</type>
</entity>
<entity>
  <text>123-34-5678</text>
  <category>PROTECTED_HEALTH_INFORMATION</category>
  <score>0.9998034834861755</score>
  <type>ID</type>
</entity>
<entity>
  <text>01/01/2000</text>
  <category>PROTECTED_HEALTH_INFORMATION</category>
  <score>0.9964448809623718</score>
  <type>DATE</type>
</entity>
</comprehend_medical_phi_entities>

<instructions>
Using the provided original text and the Amazon Comprehend Medical PHI entities detected, please analyze the text to determine if it contains any additional protected health information (PHI) beyond the entities already identified. If additional PHI is found, please list and categorize it. If no additional PHI is found, please state that explicitly.
In addition if PHI is found, generate updated text with the PHI removed. 
</instructions>
```

# Verwendung umfangreicher Sprachmodelle für Anwendungsfälle im Gesundheitswesen und in den Biowissenschaften
<a name="llms"></a>

Hier wird beschrieben, wie Sie große Sprachmodelle (LLMs) für Anwendungen im Gesundheitswesen und in den Biowissenschaften verwenden können. Einige Anwendungsfälle erfordern die Verwendung eines großen Sprachmodells für generative KI-Funktionen. Selbst für die meisten gibt es Vor- und Nachteile state-of-the-art LLMs, und die Empfehlungen in diesem Abschnitt sollen Ihnen helfen, Ihre Zielergebnisse zu erreichen.

Sie können den Entscheidungspfad verwenden, um die geeignete LLM-Lösung für Ihren Anwendungsfall zu ermitteln und dabei Faktoren wie Fachwissen und verfügbare Trainingsdaten zu berücksichtigen. Darüber hinaus werden in diesem Abschnitt beliebte vortrainierte medizinische Fachkräfte LLMs sowie bewährte Verfahren für deren Auswahl und Anwendung beschrieben. Außerdem werden die Kompromisse zwischen komplexen, leistungsstarken Lösungen und einfacheren, kostengünstigeren Ansätzen erörtert.

## Anwendungsfälle für ein LLM
<a name="llm-use-cases"></a>

Amazon Comprehend Medical kann bestimmte NLP-Aufgaben ausführen. Weitere Informationen finden Sie unter [Anwendungsfälle für Amazon Comprehend Medical](comprehend-medical.md#comprehend-medical-use-cases).

Die logischen und generativen KI-Fähigkeiten eines LLM können für fortgeschrittene Anwendungsfälle im Gesundheitswesen und in den Biowissenschaften erforderlich sein, z. B. für die folgenden:
+ Klassifizierung von benutzerdefinierten medizinischen Entitäten oder Textkategorien
+ Beantwortung klinischer Fragen
+ Zusammenfassung der medizinischen Berichte
+ Generierung und Erfassung von Erkenntnissen aus medizinischen Informationen

## Anpassungsansätze
<a name="llm-customization"></a>

Es ist wichtig zu verstehen, wie LLMs sie umgesetzt werden. LLMs werden üblicherweise mit Milliarden von Parametern trainiert, einschließlich Trainingsdaten aus vielen Bereichen. Dieses Training ermöglicht es dem LLM, die meisten allgemeinen Aufgaben zu bewältigen. Herausforderungen treten jedoch häufig auf, wenn domänenspezifisches Wissen erforderlich ist. Beispiele für Fachwissen im Gesundheitswesen und in den Biowissenschaften sind Klinikkodizes, medizinische Terminologie und Gesundheitsinformationen, die zur Generierung genauer Antworten erforderlich sind. Daher führt die Verwendung des LLM unverändert (Zero-Shot Prompting ohne Ergänzung des Fachwissens) für diese Anwendungsfälle wahrscheinlich zu ungenauen Ergebnissen. Es gibt mehrere beliebte Ansätze, mit denen Sie diese Herausforderung bewältigen können: Prompt Engineering, Retrieval Augmented Generation (RAG) und Feinabstimmung.

### Prompt-Engineering
<a name="llm-customization-prompt-engineering"></a>

*Prompt Engineering* ist der Prozess, bei dem Sie generative KI-Lösungen anleiten, um die gewünschten Ergebnisse zu erzielen, indem Sie die Eingaben an das LLM anpassen. Durch die Erstellung präziser Eingabeaufforderungen mit relevantem Kontext ist es möglich, das Modell zur Erledigung spezialisierter Aufgaben im Gesundheitswesen zu führen, die Argumentation erfordern. Effektives Prompt-Engineering kann die Modellleistung für Anwendungsfälle im Gesundheitswesen erheblich verbessern, ohne dass Modelländerungen erforderlich sind. Weitere Informationen zu Prompt Engineering finden Sie unter [Implementieren von Advanced Prompt Engineering mit Amazon Bedrock](https://aws.amazon.com/blogs/machine-learning/implementing-advanced-prompt-engineering-with-amazon-bedrock/) (AWS Blogbeitrag). Few-Shot Prompting und chain-of-thought Prompting sind Techniken, die Sie beim Prompt-Engineering anwenden können.

#### Few Shot Prompting
<a name="few-shot-prompting"></a>

Die Eingabeaufforderung ist eine Technik, bei der Sie dem LLM einige Beispiele für die gewünschte Eingabe und Ausgabe zur Verfügung stellen, bevor Sie es bitten, eine ähnliche Aufgabe auszuführen. Im Gesundheitswesen eignet sich dieser Ansatz besonders für spezielle Aufgaben wie die Erkennung medizinischer Entitäten oder die Zusammenfassung klinischer Notizen. Wenn Sie Ihrer Aufforderung 3—5 hochwertige Beispiele hinzufügen, können Sie das Verständnis des Modells für medizinische Terminologie und domänenspezifische Muster erheblich verbessern. Ein Beispiel für Few-Shot-Prompting finden Sie unter [Few-Shot Prompting Engineering and Fine-Tuning for LLMs in Amazon](https://aws.amazon.com/blogs/machine-learning/few-shot-prompt-engineering-and-fine-tuning-for-llms-in-amazon-bedrock/) Bedrock (Blogbeitrag).AWS 

Wenn Sie beispielsweise Medikamentendosierungen aus klinischen Notizen extrahieren, können Sie Beispiele für verschiedene Schreibweisen angeben, anhand derer das Modell Abweichungen in der Art und Weise erkennen kann, wie medizinisches Fachpersonal Verschreibungen dokumentiert. Dieser Ansatz ist besonders effektiv, wenn mit standardisierten Dokumentationsformaten gearbeitet wird oder wenn die Daten konsistente Muster aufweisen.

#### Chain-of-thought auffordernd
<a name="chain-of-thought-prompting"></a>

Chain-of-thought Die *Aufforderung (CoT)* führt den LLM durch einen step-by-step Argumentationsprozess. Dies macht es für komplexe medizinische Entscheidungsunterstützung und diagnostische Argumentationsaufgaben wertvoll. Indem Sie das Modell ausdrücklich anweisen, bei der Analyse klinischer Szenarien „Schritt für Schritt zu denken“, können Sie seine Fähigkeit verbessern, medizinische Argumentationsprotokolle zu befolgen und Diagnosefehler zu reduzieren.

Diese Technik eignet sich hervorragend, wenn klinisches Denken mehrere logische Schritte erfordert, wie z. B. Differentialdiagnose oder Behandlungsplanung. Dieser Ansatz hat jedoch Einschränkungen, wenn es um hochspezialisiertes medizinisches Wissen geht, das nicht auf den Trainingsdaten des Modells basiert, oder wenn bei Entscheidungen in der Intensivmedizin absolute Präzision erforderlich ist.

In diesen Fällen kann die Kombination von CoT mit einem anderen Ansatz zu besseren Ergebnissen führen. Eine Möglichkeit besteht darin, CoT mit der Aufforderung zur Selbstkonsistenz zu kombinieren. Weitere Informationen finden Sie unter [Verbessern der Leistung generativer Sprachmodelle mit Selbstkonsistenzabfragen auf Amazon Bedrock](https://aws.amazon.com/blogs/machine-learning/enhance-performance-of-generative-language-models-with-self-consistency-prompting-on-amazon-bedrock/) (AWS Blogbeitrag). Eine weitere Option ist die Kombination von Argumentationsstrukturen, wie z. B. ReAct Aufforderungen, mit RAG. Weitere Informationen finden Sie unter [Entwickeln fortschrittlicher generativer KI-Assistenten auf Chatbasis mithilfe von RAG und ReAct Prompting](https://docs.aws.amazon.com/prescriptive-guidance/latest/patterns/develop-advanced-generative-ai-chat-based-assistants-by-using-rag-and-react-prompting.html) (Prescriptive Guidance).AWS 

### Retrieval Augmented Generation
<a name="llm-customization-rag"></a>

*Retrieval Augmented Generation (RAG)* ist eine generative KI-Technologie, bei der ein LLM auf eine maßgebliche Datenquelle verweist, die sich außerhalb seiner Trainingsdatenquellen befindet, bevor eine Antwort generiert wird. Ein RAG-System kann medizinische Ontologieinformationen (wie internationale Klassifikationen von Krankheiten, nationale Arzneimittelakten und medizinische Fachüberschriften) aus einer Wissensquelle abrufen. Dies bietet zusätzlichen Kontext für das LLM zur Unterstützung der medizinischen NLP-Aufgabe.

Wie im [Kombination von Amazon Comprehend Medical mit großen Sprachmodellen](comprehend-medical-rag.md) Abschnitt beschrieben, können Sie einen RAG-Ansatz verwenden, um Kontext aus Amazon Comprehend Medical abzurufen. Andere allgemeine Wissensquellen umfassen medizinische Domänendaten, die in einem Datenbankservice wie Amazon OpenSearch Service, Amazon Kendra oder Amazon Aurora gespeichert sind. Das Extrahieren von Informationen aus diesen Wissensquellen kann die Abrufleistung beeinträchtigen, insbesondere bei semantischen Abfragen, die eine Vektordatenbank verwenden.

Eine weitere Option zum Speichern und Abrufen von domänenspezifischem Wissen ist die Verwendung von [Amazon Q Business](https://docs.aws.amazon.com/amazonq/latest/qbusiness-ug/what-is.html) in Ihrem RAG-Workflow. Amazon Q Business kann interne Dokumentenspeicher oder öffentlich zugängliche Websites (wie [CMS.gov](https://cms.gov/) für ICD-10-Daten) indizieren. Amazon Q Business kann dann relevante Informationen aus diesen Quellen extrahieren, bevor Ihre Anfrage an das LLM weitergeleitet wird.

Es gibt mehrere Möglichkeiten, einen benutzerdefinierten RAG-Workflow zu erstellen. Beispielsweise gibt es viele Möglichkeiten, Daten aus einer Wissensquelle abzurufen. Der Einfachheit halber empfehlen wir den gängigen Abrufansatz, bei dem Wissen in Form von Einbettungen mithilfe einer Vektordatenbank wie Amazon OpenSearch Service gespeichert wird. Dies erfordert, dass Sie ein Einbettungsmodell verwenden, z. B. einen Satztransformator, um Einbettungen für die Abfrage und für das in der Vektordatenbank gespeicherte Wissen zu generieren.

Weitere Informationen zu vollständig verwalteten und benutzerdefinierten RAG-Ansätzen finden Sie unter [Retrieval Augmented Generation-Optionen](https://docs.aws.amazon.com/prescriptive-guidance/latest/retrieval-augmented-generation-options/introduction.html) und Architekturen auf. AWS

### Feinabstimmung
<a name="llm-customization-fine-tuning"></a>

Zur *Feinabstimmung* eines vorhandenen Modells müssen Sie ein LLM-Modell, z. B. ein Amazon Titan-, Mistral- oder Lama-Modell, erstellen und das Modell anschließend an Ihre benutzerdefinierten Daten anpassen. Es gibt verschiedene Techniken zur Feinabstimmung, von denen die meisten die Änderung nur einiger weniger Parameter beinhalten, anstatt alle Parameter im Modell zu ändern. Dies wird als *parametereffizientes Feintuning* (PEFT) bezeichnet. Weitere Informationen finden Sie unter [Hugging Face PEFT on](https://github.com/huggingface/peft). GitHub

Im Folgenden sind zwei häufige Anwendungsfälle aufgeführt, in denen Sie sich für die Feinabstimmung eines LLM für eine medizinische NLP-Aufgabe entscheiden könnten:
+ **Generative Aufgabe — Decoder-basierte Modelle führen generative** KI-Aufgaben aus. AI/ML Praktiker verwenden Ground-Truth-Daten, um ein bestehendes LLM zu verfeinern. Sie könnten das LLM beispielsweise mithilfe von [MedQuAD](https://github.com/abachaa/MedQuAD), einem öffentlichen Datensatz zur Beantwortung medizinischer Fragen, schulen. Wenn Sie eine Abfrage für das fein abgestimmte LLM aufrufen, benötigen Sie keinen RAG-Ansatz, um dem LLM den zusätzlichen Kontext bereitzustellen.
+ **Einbettungen** — Encoder-basierte Modelle erzeugen Einbettungen, indem sie Text in numerische Vektoren umwandeln. *Diese auf Encodern basierenden Modelle werden in der Regel als Einbettungsmodelle bezeichnet.* Ein *Satztransformator-Modell* ist eine bestimmte Art von Einbettungsmodell, das für Sätze optimiert ist. Ziel ist es, Einbettungen aus Eingabetext zu generieren. Die Einbettungen werden dann für semantische Analysen oder für Abruftasks verwendet. Zur Feinabstimmung des Einbettungsmodells benötigen Sie einen Korpus an medizinischem Wissen, z. B. Dokumenten, den Sie als Trainingsdaten verwenden können. Dies wird mit Textpaaren erreicht, die auf Ähnlichkeit oder Stimmung basieren, um ein Satztransformator-Modell zu verfeinern. Weitere Informationen finden Sie unter [Training und Feinabstimmung von Einbettungsmodellen mit Sentence Transformers v3](https://huggingface.co/blog/train-sentence-transformers) auf Hugging Face.

Sie können [Amazon SageMaker Ground Truth](https://docs.aws.amazon.com/sagemaker/latest/dg/sms.html) verwenden, um einen hochwertigen, beschrifteten Trainingsdatensatz zu erstellen. Sie können die beschrifteten Datensatzausgabe aus Ground Truth verwenden, um Ihre eigenen Modelle zu trainieren. Sie können die Ausgabe auch als Trainingsdatensatz für ein Amazon SageMaker AI-Modell verwenden. Weitere Informationen zur Erkennung benannter Entitäten, zur Textklassifizierung mit einem Etikett und zur Textklassifizierung mit mehreren Bezeichnungen finden Sie unter [Textkennzeichnung mit Ground Truth](https://docs.aws.amazon.com/sagemaker/latest/dg/sms-label-text.html) in der Amazon SageMaker AI-Dokumentation.

Weitere Informationen zur Feinabstimmung finden Sie [Feinabstimmung großer Sprachmodelle im Gesundheitswesen](fine-tuning.md) in diesem Handbuch.

## Einen LLM auswählen
<a name="llm-selection"></a>

[Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/what-is-bedrock.html) ist der empfohlene Ausgangspunkt für die Bewertung leistungsstarker LLMs Produkte. Weitere Informationen finden Sie unter [Unterstützte Foundation-Modelle in Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/models-supported.html). Sie können Modellevaluierungsjobs in Amazon Bedrock verwenden, um die Ergebnisse mehrerer Ausgaben zu vergleichen und dann das Modell auszuwählen, das für Ihren Anwendungsfall am besten geeignet ist. Weitere Informationen finden [Sie unter Wählen Sie das Modell mit der besten Leistung anhand von Amazon Bedrock-Bewertungen](https://docs.aws.amazon.com/bedrock/latest/userguide/model-evaluation.html) in der Amazon Bedrock-Dokumentation.

Einige LLMs verfügen nur über begrenzte Schulungen zu medizinischen Daten. [Wenn Ihr Anwendungsfall die Feinabstimmung eines LLM oder eines LLM erfordert, das Amazon Bedrock nicht unterstützt, sollten Sie die Verwendung von Amazon AI in Betracht ziehen. SageMaker ](https://docs.aws.amazon.com/sagemaker/latest/dg/whatis.html) In SageMaker KI können Sie ein fein abgestimmtes LLM verwenden oder ein benutzerdefiniertes LLM wählen, das auf medizinischen Domänendaten trainiert wurde.

In der folgenden Tabelle sind beliebte Unternehmen aufgeführt LLMs , die auf Daten aus dem medizinischen Bereich trainiert wurden.


| 
| 
| LLM | Aufgaben | Wissen | Architektur | 
| --- |--- |--- |--- |
| [BioBert](https://github.com/dmis-lab/biobert) | Informationsabruf, Textklassifizierung und Erkennung benannter Entitäten | Zusammenfassungen von PubMed, Volltextartikel von und PubMedCentral allgemeines Fachwissen | Encoder | 
| [Klinik Albert](https://github.com/kexinhuang12345/clinicalBERT) | Informationsabruf, Textklassifizierung und Erkennung benannter Entitäten | Großer, multizentrischer Datensatz zusammen mit über 3.000.000 Patientenakten aus elektronischen Patientendatensystemen (EHR) | Encoder | 
| [Klinisches GPT](https://huggingface.co/medicalai/ClinicalGPT-base-zh) | Zusammenfassung, Beantwortung von Fragen und Textgenerierung | Umfangreiche und vielfältige medizinische Datensätze, darunter Krankenakten, fachspezifisches Wissen und Konsultationen in mehreren Gesprächsrunden | Decoder | 
| [GatorTron-GO](https://catalog.ngc.nvidia.com/orgs/nvidia/teams/clara/models/gatortron_og) | Zusammenfassung, Beantwortung von Fragen, Textgenerierung und Informationsabruf | Klinische Hinweise und biomedizinische Literatur | Encoder | 
| [Med-Bert](https://github.com/ZhiGroup/Med-BERT) | Informationsabruf, Textklassifizierung und Erkennung benannter Entitäten | Großer Datensatz mit medizinischen Texten, klinischen Notizen, Forschungsarbeiten und Dokumenten zum Gesundheitswesen | Encoder | 
| [Med-Palm](https://sites.research.google/med-palm/) | Beantwortung von Fragen für medizinische Zwecke | Datensätze mit medizinischem und biomedizinischem Text | Decoder | 
| [Medaille Alpaca](https://github.com/kbressem/medAlpaca) | Aufgaben zur Beantwortung von Fragen und zum medizinischen Dialog | Eine Vielzahl von medizinischen Texten, die Ressourcen wie medizinische Karteikarten, Wikis und Dialogdatensätze umfassen | Decoder | 
| [BioMedbert](https://huggingface.co/microsoft/BiomedNLP-BiomedBERT-base-uncased-abstract-fulltext) | Informationsabruf, Textklassifizierung und Erkennung benannter Entitäten | Ausschließlich Kurzfassungen PubMed und Volltextartikel von PubMedCentral | Encoder | 
| [BioMedLM](https://github.com/stanford-crfm/BioMedLM) | Zusammenfassung, Beantwortung von Fragen und Textgenerierung | Biomedizinische Literatur aus Wissensquellen PubMed  | Decoder | 

Im Folgenden finden Sie bewährte Methoden für den Einsatz von vortrainierten Ärzten: LLMs
+ Machen Sie sich mit den Trainingsdaten und ihrer Relevanz für Ihre medizinische NLP-Aufgabe vertraut.
+ Identifizieren Sie die LLM-Architektur und ihren Zweck. Encoder eignen sich für Einbettungen und NLP-Aufgaben. Decoder sind für Generierungsaufgaben vorgesehen.
+ Evaluieren Sie die Infrastruktur-, Leistungs- und Kostenanforderungen für die Durchführung des vortrainierten medizinischen LLM.
+ Wenn eine Feinabstimmung erforderlich ist, stellen Sie sicher, dass die Trainingsdaten korrekt sind. Stellen Sie sicher, dass Sie alle persönlich identifizierbaren Informationen (PII) oder geschützten Gesundheitsinformationen (PHI) maskieren oder unkenntlich machen.

Reale medizinische NLP-Aufgaben können sich LLMs in Bezug auf Wissen oder beabsichtigte Anwendungsfälle von vortrainierten Aufgaben unterscheiden. Wenn ein domänenspezifisches LLM Ihre Bewertungsmaßstäbe nicht erfüllt, können Sie ein LLM mit Ihrem eigenen Datensatz verfeinern oder ein neues Basismodell trainieren. Die Schulung eines neuen Basismodells ist ein ehrgeiziges und oft teures Unterfangen. Für die meisten Anwendungsfälle empfehlen wir, ein vorhandenes Modell zu verfeinern.

Bei der Verwendung oder Feinabstimmung eines vortrainierten medizinischen LLMs ist es wichtig, die Infrastruktur, die Sicherheit und die Leitplanken zu berücksichtigen.

### Infrastruktur
<a name="llm-selection-infrastructure"></a>

Im Vergleich zur Nutzung von Amazon Bedrock für On-Demand- oder Batch-Inferenzen erfordert das Hosten von vortrainierten medizinischen LLMs (üblicherweise von Hugging Face) erhebliche Ressourcen. Um vortrainierte medizinische LLMs zu hosten, wird üblicherweise ein Amazon SageMaker AI-Image verwendet, das auf einer Amazon Elastic Compute Cloud (Amazon EC2) -Instance mit einer oder mehreren Instances ausgeführt wird GPUs, z. B. ml.g5-Instances für beschleunigtes Rechnen oder ml.inf2-Instances für. AWS Inferentia Das liegt daran, dass sie eine große Menge an Arbeitsspeicher und Festplattenspeicher LLMs verbrauchen.

### Sicherheit und Leitplanken
<a name="llm-selection-guardrails"></a>

Je nach Ihren geschäftlichen Compliance-Anforderungen sollten Sie erwägen, Amazon Comprehend und Amazon Comprehend Medical zu verwenden, um personenbezogene Daten (PII) und geschützte Gesundheitsinformationen (PHI) aus Trainingsdaten zu maskieren oder zu redigieren. Dadurch wird verhindert, dass das LLM vertrauliche Daten verwendet, wenn es Antworten generiert.

Wir empfehlen Ihnen, Vorurteile, Fairness und Halluzinationen in Ihren generativen KI-Anwendungen zu berücksichtigen und zu bewerten. Unabhängig davon, ob Sie ein bereits vorhandenes LLM verwenden oder eines optimieren, implementieren Sie Leitplanken, um schädliche Reaktionen zu verhindern. *Guardrails* sind Schutzmaßnahmen, die Sie an Ihre generativen KI-Anwendungsanforderungen und verantwortungsvollen KI-Richtlinien anpassen. Sie können beispielsweise [Amazon Bedrock Guardrails](https://docs.aws.amazon.com/bedrock/latest/userguide/guardrails.html) verwenden.

# Feinabstimmung großer Sprachmodelle im Gesundheitswesen
<a name="fine-tuning"></a>

Der in diesem Abschnitt beschriebene Ansatz zur Feinabstimmung unterstützt die Einhaltung ethischer und regulatorischer Richtlinien und fördert den verantwortungsvollen Einsatz von KI-Systemen im Gesundheitswesen. Es wurde entwickelt, um genaue und vertrauliche Erkenntnisse zu generieren. Generative KI revolutioniert die Gesundheitsversorgung, aber off-the-shelf Modelle sind in klinischen Umgebungen, in denen Genauigkeit entscheidend ist und Compliance nicht verhandelbar ist, oft unzureichend. Die Feinabstimmung von Basismodellen mit domänenspezifischen Daten schließt diese Lücke. Es hilft Ihnen dabei, KI-Systeme zu entwickeln, die die Sprache der Medizin sprechen und gleichzeitig strenge regulatorische Standards einhalten. Der Weg zu einer erfolgreichen Feinabstimmung erfordert jedoch eine sorgfältige Bewältigung der einzigartigen Herausforderungen des Gesundheitswesens: Schutz sensibler Daten, Rechtfertigung von KI-Investitionen mit messbaren Ergebnissen und Wahrung der klinischen Relevanz in einem sich schnell entwickelnden medizinischen Umfeld.

Wenn leichtere Ansätze an ihre Grenzen stoßen, wird die Feinabstimmung zu einer strategischen Investition. Es wird davon ausgegangen, dass die Gewinne an Genauigkeit, Latenz oder betrieblicher Effizienz die erheblichen Rechen- und Engineering-Kosten ausgleichen werden. Es ist wichtig, sich daran zu erinnern, dass der Fortschritt bei Basismodellen schnell voranschreitet, sodass der Vorteil eines fein abgestimmten Modells möglicherweise nur bis zur nächsten großen Modellversion anhält.

In diesem Abschnitt wird die Diskussion anhand der folgenden zwei wichtigen Anwendungsfälle von Kunden aus dem AWS Gesundheitswesen behandelt:
+ **Systeme zur Unterstützung klinischer Entscheidungen** — Verbessern Sie die diagnostische Genauigkeit durch Modelle, die komplexe Patientengeschichten verstehen und sich weiterentwickelnde Richtlinien entwickeln. Durch eine Feinabstimmung können Modelle dazu beitragen, komplexe Patientengeschichten besser zu verstehen und spezielle Richtlinien zu integrieren. Dadurch können Fehler bei der Modellvorhersage potenziell reduziert werden. Sie müssen diese Vorteile jedoch gegen die Kosten für Schulungen zu großen, sensiblen Datensätzen und der Infrastruktur abwägen, die für anspruchsvolle klinische Anwendungen erforderlich ist. Rechtfertigen die verbesserte Genauigkeit und die verbesserte Kontextsensitivität die Investition, insbesondere wenn häufig neue Modelle auf den Markt kommen?
+ **Analyse medizinischer Dokumente** — Automatisieren Sie die Verarbeitung von klinischen Notizen, bildgebenden Berichten und Versicherungsdokumenten und wahren Sie gleichzeitig die Einhaltung des Health Insurance Portability and Accountability Act (HIPAA). Hier kann das Modell durch eine Feinabstimmung möglicherweise in der Lage sein, einzigartige Formate, spezielle Abkürzungen und regulatorische Anforderungen effektiver zu handhaben. Der Vorteil liegt häufig in einer Verkürzung der Zeit für manuelle Prüfungen und einer verbesserten Einhaltung von Vorschriften. Dennoch ist es wichtig zu beurteilen, ob diese Verbesserungen erheblich genug sind, um die Ressourcen für die Feinabstimmung zu rechtfertigen. Finden Sie heraus, ob zeitnahes Engineering und Workflow-Orchestrierung Ihren Anforderungen gerecht werden können.

Diese realen Szenarien veranschaulichen den Prozess der Feinabstimmung, von den ersten Experimenten bis zur Implementierung des Modells, und berücksichtigen gleichzeitig die individuellen Anforderungen des Gesundheitswesens in jeder Phase.

## Schätzung der Kosten und der Kapitalrendite
<a name="fine-tuning-costs"></a>

Die folgenden Kostenfaktoren müssen Sie bei der Feinabstimmung eines LLM berücksichtigen:
+ **Modellgröße** — Bei größeren Modellen ist die Feinabstimmung teurer
+ **Datensatzgröße** — Die Rechenkosten und der Zeitaufwand steigen mit der Größe des Datensatzes für die Feinabstimmung
+ **Strategie zur Feinabstimmung** — Parametereffiziente Methoden können die Kosten im Vergleich zu vollständigen Parameteraktualisierungen reduzieren

Berücksichtigen Sie bei der Berechnung der Investitionsrendite (ROI) die Verbesserung der von Ihnen ausgewählten Kennzahlen (z. B. Genauigkeit), multipliziert mit dem Volumen der Anfragen (wie oft das Modell verwendet wird) und der erwarteten Dauer, bis das Modell von neueren Versionen übertroffen wird.

Berücksichtigen Sie auch die Lebensdauer Ihres Basis-LLMs. Alle 6—12 Monate kommen neue Basismodelle auf den Markt. Wenn die Feinabstimmung und Validierung Ihres Detektors für seltene Krankheiten 8 Monate in Anspruch nimmt, erhalten Sie möglicherweise nur 4 Monate überragende Leistung, bevor neuere Modelle die Lücke schließen.

Durch die Berechnung der Kosten, des ROI und der potenziellen Lebensdauer für Ihren Anwendungsfall können Sie eine datengestützte Entscheidung treffen. Wenn beispielsweise die Feinabstimmung Ihres Modells zur Unterstützung klinischer Entscheidungen zu einer messbaren Reduzierung von Diagnosefehlern bei Tausenden von Fällen pro Jahr führt, kann sich die Investition schnell auszahlen. Umgekehrt kann es ratsam sein, mit der Feinabstimmung zu warten, bis die nächste Generation von Modellen verfügbar ist, wenn Ihr Dokumentenanalyse-Workflow allein schon durch schnelle technische Umsetzung Ihrer Zielgenauigkeit erreicht wird.

Feinabstimmung ist es nicht. one-size-fits-all Wenn Sie sich für eine Feinabstimmung entscheiden, hängt der richtige Ansatz von Ihrem Anwendungsfall, Ihren Daten und Ressourcen ab.

## Wahl einer Strategie zur Feinabstimmung
<a name="fine-tuning-strategy"></a>

Nachdem Sie festgestellt haben, dass die Feinabstimmung der richtige Ansatz für Ihren Anwendungsfall im Gesundheitswesen ist, besteht der nächste Schritt darin, die am besten geeignete Feinabstimmungsstrategie auszuwählen. Es stehen mehrere Ansätze zur Verfügung. Jeder hat unterschiedliche Vorteile und Kompromisse für Anwendungen im Gesundheitswesen. Die Wahl zwischen diesen Methoden hängt von Ihren spezifischen Zielen, den verfügbaren Daten und Ihren Ressourcenbeschränkungen ab.

### Ziele der Schulung
<a name="fine-tuning-strategy-training-objectives"></a>

Beim [domänenadaptiven Vortraining (DAPT)](https://arxiv.org/abs/2504.09687) handelt es sich um eine unbeaufsichtigte Methode, bei der das Modell anhand einer großen Menge domänenspezifischen, unbeschrifteten Textes (z. B. Millionen von medizinischen Dokumenten) vorab trainiert wird. Dieser Ansatz eignet sich hervorragend zur Verbesserung der Fähigkeit der Modelle, Abkürzungen für medizinische Fachgebiete und die von Radiologen, Neurologen und anderen spezialisierten Anbietern verwendete Terminologie zu verstehen. DAPT erfordert jedoch riesige Datenmengen und ist nicht auf bestimmte Aufgaben zugeschnitten.

[Supervised Fine-Tuning (SFT)](https://arxiv.org/abs/2506.14681) bringt dem Modell anhand strukturierter Input-Output-Beispiele bei, explizite Anweisungen zu befolgen. Dieser Ansatz eignet sich hervorragend für Workflows zur Analyse medizinischer Dokumente, z. B. für die Zusammenfassung von Dokumenten oder die klinische Kodierung. Die *Befehlsoptimierung* ist eine gängige Form von SFT, bei der das Modell anhand von Beispielen trainiert wird, die explizite Anweisungen mit den gewünschten Ergebnissen kombinieren. Dies verbessert die Fähigkeit des Modells, verschiedene Benutzeranweisungen zu verstehen und zu befolgen. Diese Technik ist im Gesundheitswesen besonders wertvoll, da sie das Modell anhand spezifischer klinischer Beispiele trainiert. Der Hauptnachteil besteht darin, dass dafür sorgfältig beschriftete Beispiele erforderlich sind. Darüber hinaus könnte das fein abgestimmte Modell Probleme mit Grenzfällen haben, für die es keine Beispiele gibt. Eine Anleitung zur Feinabstimmung mit Amazon SageMaker Jumpstart finden Sie unter [Anleitung zur Feinabstimmung für FLAN T5 XL mit Amazon SageMaker Jumpstart](https://aws.amazon.com/blogs/machine-learning/instruction-fine-tuning-for-flan-t5-xl-with-amazon-sagemaker-jumpstart/) (Blogbeitrag).AWS 

[Reinforcement Learning from Human Feedback (RLHF)](https://aws.amazon.com/what-is/reinforcement-learning-from-human-feedback/) optimiert das Modellverhalten auf der Grundlage von Expertenfeedback und Präferenzen. Verwenden Sie ein Belohnungsmodell, das auf menschlichen Präferenzen und Methoden wie [Proximal Policy Optimization (PPO) oder [Direct Preference Optimization (DPO)](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune-hyperpod-dpo.html)](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune-hyperpod-ppo.html) trainiert wurde, um das Modell zu optimieren und gleichzeitig zerstörerische Aktualisierungen zu verhindern. RLHF ist ideal, um die Ergebnisse mit den klinischen Leitlinien in Einklang zu bringen und sicherzustellen, dass die Empfehlungen im Rahmen der genehmigten Protokolle bleiben. Dieser Ansatz erfordert viel Zeit für Rückmeldungen durch Ärzte und beinhaltet eine komplexe Trainingspipeline. RLHF ist jedoch im Gesundheitswesen besonders wertvoll, da es medizinischen Experten hilft, die Art und Weise zu gestalten, wie KI-Systeme kommunizieren und Empfehlungen aussprechen. So können Ärzte beispielsweise Feedback geben, um sicherzustellen, dass das Modell eine angemessene Art und Weise am Krankenbett beibehält, weiß, wann Unsicherheiten geäußert werden müssen, und dass es die klinischen Richtlinien einhält. Techniken wie PPO optimieren das Modellverhalten iterativ auf der Grundlage von Expertenfeedback und schränken gleichzeitig die Aktualisierung der Parameter ein, um medizinisches Kernwissen zu erhalten. Auf diese Weise können Modelle komplexe Diagnosen in einer patientenfreundlichen Sprache vermitteln und gleichzeitig schwerwiegende Erkrankungen für eine sofortige medizinische Behandlung kennzeichnen. Dies ist entscheidend für das Gesundheitswesen, wo es sowohl auf Genauigkeit als auch auf den Kommunikationsstil ankommt. Weitere Informationen zu RLHF finden Sie unter [Feinabstimmung umfangreicher Sprachmodelle mit verstärkendem Lernen anhand von menschlichem oder künstlichem Feedback](https://aws.amazon.com/blogs/machine-learning/fine-tune-large-language-models-with-reinforcement-learning-from-human-or-ai-feedback/) (AWS Blogbeitrag).

### Methoden der Implementierung
<a name="fine-tuning-strategy-implementation"></a>

Ein *vollständiges Parameter-Update* beinhaltet die Aktualisierung aller Modellparameter während des Trainings. Dieser Ansatz eignet sich am besten für Systeme zur Unterstützung klinischer Entscheidungen, die eine umfassende Integration von Patientenanamnese, Laborergebnissen und sich weiterentwickelnden Richtlinien erfordern. Zu den Nachteilen gehören hohe Rechenkosten und das Risiko einer Überanpassung, wenn Ihr Datensatz nicht umfangreich und vielfältig ist.

Bei Methoden zur [parametereffizienten Feinabstimmung (PEFT)](https://arxiv.org/abs/2312.12148) wird nur eine Teilmenge von Parametern aktualisiert, um eine Überanpassung oder einen katastrophalen Verlust von Sprachkenntnissen zu verhindern. Zu den Typen gehören [Low-Rank Adaptation](https://arxiv.org/abs/2106.09685) (LoRa), Adapter und Präfix-Tuning. PEFT-Methoden bieten geringere Rechenkosten, schnellere Schulungen und eignen sich hervorragend für Experimente wie die Anpassung eines Modells zur Unterstützung klinischer Entscheidungen an die Protokolle oder Terminologie eines neuen Krankenhauses. Die größte Einschränkung ist die potenziell verringerte Leistung im Vergleich zu vollständigen Parameteraktualisierungen.

Weitere Informationen zu Feinabstimmungsmethoden finden Sie unter [Erweiterte Feinabstimmungsmethoden auf Amazon SageMaker AI](https://aws.amazon.com/blogs/machine-learning/advanced-fine-tuning-methods-on-amazon-sagemaker-ai/) (AWS Blogbeitrag).

## Einen Datensatz zur Feinabstimmung erstellen
<a name="fine-tuning-dataset"></a>

Die Qualität und Vielfalt des Datensatzes zur Feinabstimmung ist entscheidend für die Leistung, Sicherheit und Vermeidung von Verzerrungen von Modellen. Die folgenden drei wichtigen Bereiche sollten bei der Erstellung dieses Datensatzes berücksichtigt werden:
+ Das Volumen basiert auf einem Feinabstimmungsansatz
+ Datenanmerkung von einem Fachexperten
+ Vielfalt des Datensatzes

Wie in der folgenden Tabelle dargestellt, variieren die Anforderungen an die Datensatzgröße für die Feinabstimmung je nach Art der durchgeführten Feinabstimmung.


| 
| 
| **Strategie für die Feinabstimmung** | **Größe des Datensatzes** | 
| --- |--- |
| An die Domäne angepasste Vorschulung | Über 100.000 Domain-Texte | 
| Beaufsichtigte Feinabstimmung | Über 10.000 beschriftete Paare | 
| Verstärktes Lernen aus menschlichem Feedback | Präferenzpaare für mehr als 1.000 Experten | 

Sie können [Amazon EMR und Amazon SageMaker ](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-what-is-emr.html) [Data Wrangler verwenden [AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/what-is-glue.html), um den Datenextraktions](https://docs.aws.amazon.com/sagemaker/latest/dg/data-wrangler.html) - und Transformationsprozess zu automatisieren, um einen Datensatz zu kuratieren, den Sie besitzen. Wenn Sie nicht in der Lage sind, einen ausreichend großen Datensatz zu kuratieren, können Sie Datensätze finden und direkt in Ihren Browser herunterladen. AWS-Konto [AWS Data Exchange](https://docs.aws.amazon.com/data-exchange/latest/userguide/what-is.html) Konsultieren Sie Ihren Rechtsbeistand, bevor Sie Datensätze von Drittanbietern verwenden.

Erfahrene Annotatoren mit Fachkenntnissen wie Ärzte, Biologen und Chemiker sollten Teil des Datenkurationsprozesses sein, um die Nuancen medizinischer und biologischer Daten in die Modellausgabe einfließen zu lassen. [Amazon SageMaker Ground Truth](https://docs.aws.amazon.com/sagemaker/latest/dg/sms.html) bietet eine Low-Code-Benutzeroberfläche, über die Experten den Datensatz kommentieren können.

Ein Datensatz, der die menschliche Bevölkerung repräsentiert, ist für die Feinabstimmung von Anwendungsfällen im Gesundheitswesen und in den Biowissenschaften unerlässlich, um Verzerrungen zu vermeiden und reale Ergebnisse widerzuspiegeln. [AWS Glue interaktive Sitzungen](https://docs.aws.amazon.com/glue/latest/dg/interactive-sessions-chapter.html) oder [ SageMaker Amazon-Notebook-Instances](https://docs.aws.amazon.com/sagemaker/latest/dg/nbi.html) bieten eine leistungsstarke Möglichkeit, Datensätze iterativ zu untersuchen und Transformationen mithilfe von Jupyter-kompatiblen Notebooks zu optimieren. Interaktive Sitzungen ermöglichen es Ihnen, mit einer Auswahl beliebter integrierter Entwicklungsumgebungen () in Ihrer lokalen Umgebung zu arbeiten. IDEs Alternativ können Sie mit AWS Glue oder [Amazon SageMaker Studio-Notizbüchern](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html) über die arbeiten AWS-Managementkonsole.

## Feinabstimmung des Modells
<a name="fine-tuning-implementation"></a>

AWS bietet Dienste wie [Amazon SageMaker AI und Amazon](https://docs.aws.amazon.com/sagemaker/latest/dg/whatis.html) [Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/what-is-bedrock.html), die für eine erfolgreiche Feinabstimmung entscheidend sind.

SageMaker KI ist ein vollständig verwalteter Service für maschinelles Lernen, der Entwicklern und Datenwissenschaftlern hilft, ML-Modelle schnell zu erstellen, zu trainieren und bereitzustellen. Zu den drei nützlichen Funktionen von SageMaker KI für die Feinabstimmung gehören:
+ [SageMakerSchulung](https://docs.aws.amazon.com/sagemaker/latest/dg/train-model.html) — Eine vollständig verwaltete ML-Funktion, mit der Sie eine Vielzahl von Modellen effizient und in großem Maßstab trainieren können
+ [SageMaker JumpStart](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-jumpstart.html)— Eine Funktion, die auf SageMaker Trainingsaufgaben aufbaut und vortrainierte Modelle, integrierte Algorithmen und Lösungsvorlagen für ML-Aufgaben bereitstellt
+ [SageMaker HyperPod](https://docs.aws.amazon.com/sagemaker/latest/dg/sagemaker-hyperpod.html)— Eine speziell entwickelte Infrastrukturlösung für die verteilte Schulung von Basismodellen und LLMs

Amazon Bedrock ist ein vollständig verwalteter Service, der über eine API Zugriff auf leistungsstarke Fundamentmodelle mit integrierten Sicherheits-, Datenschutz- und Skalierbarkeitsfunktionen bietet. Der Service bietet die Möglichkeit, mehrere verfügbare Basismodelle zu verfeinern. Weitere Informationen finden Sie in der Amazon Bedrock-Dokumentation unter [Unterstützte Modelle und Regionen zur Feinabstimmung und weiteren Vorschulung](https://docs.aws.amazon.com/bedrock/latest/userguide/custom-model-supported.html).

Bei der Feinabstimmung mit einem der beiden Services sollten Sie das Basismodell, die Feinabstimmungsstrategie und die Infrastruktur berücksichtigen.

### Wahl des Basismodells
<a name="base-model-choice.9ac49dfa-0d0f-5434-9ce4-383d4d601722"></a>

Closed-Source-Modelle wie Anthropic Claude, Meta Llama und Amazon Nova bieten eine starke out-of-the-box Leistung mit verwalteter Compliance, beschränken aber die Flexibilität bei der Feinabstimmung auf vom Anbieter unterstützte Optionen wie Amazon Bedrock. APIs Dies schränkt die Anpassungsfähigkeit ein, insbesondere für regulierte Anwendungsfälle im Gesundheitswesen. Im Gegensatz dazu bieten Open-Source-Modelle wie Meta Llama die volle Kontrolle und Flexibilität über die Amazon SageMaker AI-Services hinweg und eignen sich daher ideal, wenn Sie ein Modell an Ihre spezifischen Daten- oder Workflow-Anforderungen anpassen, prüfen oder tiefgreifend anpassen müssen.

### Feinabstimmung der Strategie
<a name="fine-tuning-strategy.5c89c2cc-a11b-5bbd-9b85-f487aafd92ed"></a>

Die einfache Anpassung der Anweisungen kann über Amazon Bedrock [Model Customization](https://docs.aws.amazon.com/bedrock/latest/userguide/custom-models.html) oder Amazon SageMaker JumpStart vorgenommen werden. Komplexe PEFT-Ansätze, wie LoRa oder Adapter, erfordern SageMaker Schulungsaufgaben oder benutzerdefinierte Feinabstimmungsfunktionen in Amazon Bedrock. Verteilte Schulungen für sehr große Modelle werden unterstützt von. SageMaker HyperPod

### Skalierung und Kontrolle der Infrastruktur
<a name="infrastructure-scale-and-control.cdf2ff70-3099-570b-a6ed-d7ae06a019a0"></a>

Vollständig verwaltete Services wie Amazon Bedrock minimieren das Infrastrukturmanagement und eignen sich ideal für Unternehmen, die Wert auf Benutzerfreundlichkeit und Compliance legen. Teilweise verwaltete Optionen, wie z. B. SageMaker JumpStart, bieten eine gewisse Flexibilität bei geringerer Komplexität. Diese Optionen eignen sich für schnelles Prototyping oder für die Verwendung vorgefertigter Workflows. Vollständige Kontrolle und Anpassung sind mit SageMaker Schulungsaufträgen verbunden. Diese erfordern HyperPod jedoch mehr Fachwissen und eignen sich am besten, wenn Sie für große Datenmengen skalieren müssen oder benutzerdefinierte Pipelines benötigen.

## Überwachung fein abgestimmter Modelle
<a name="fine-tuning-monitoring"></a>

Im Gesundheitswesen und in den Biowissenschaften erfordert die Überwachung der LLM-Feinabstimmung die Überwachung mehrerer wichtiger Leistungsindikatoren. Genauigkeit ist eine Basismessung, die jedoch gegen Präzision und Wiederauffindbarkeit abgewogen werden muss, insbesondere bei Anwendungen, bei denen Fehlklassifizierungen erhebliche Folgen haben. Der F1-Score hilft dabei, Probleme des Klassenungleichgewichts zu lösen, die in medizinischen Datensätzen häufig vorkommen können. Weitere Informationen finden Sie unter [Evaluierung LLMs für Anwendungen im Gesundheitswesen und in den Biowissenschaften](evaluation.md) in diesem Handbuch.

Mithilfe von Kalibrierungsmetriken können Sie sicherstellen, dass die Konfidenzniveaus des Modells den realen Wahrscheinlichkeiten entsprechen. [Fairness-Metriken](https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-measure-data-bias.html) können Ihnen dabei helfen, potenzielle Verzerrungen bei verschiedenen demografischen Merkmalen der Patienten zu erkennen.

[MLflow](https://docs.aws.amazon.com/sagemaker/latest/dg/mlflow.html)ist eine Open-Source-Lösung, mit der Sie Feinabstimmungsexperimente nachverfolgen können. MLflow wird von Amazon SageMaker AI nativ unterstützt, sodass Sie Metriken von Trainingsläufen visuell vergleichen können. Für die Feinabstimmung von Jobs auf Amazon Bedrock werden Metriken an Amazon gestreamt, CloudWatch sodass Sie die Metriken in der Konsole visualisieren können. CloudWatch 