

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Basismodelle und Hyperparameter für die Optimierung
<a name="jumpstart-foundation-models-fine-tuning"></a>

Grundlagenmodelle sind rechenintensiv und werden auf einem großen, unbeschrifteten Datensatz trainiert. Die Feinabstimmung eines vortrainierten Grundlagenmodells ist eine kostengünstige Möglichkeit, die vielfältigen Funktionen des Modells zu nutzen und ein Modell gleichzeitig an Ihren eigenen kleinen Datensatz anzupassen. Die Feinabstimmung ist eine Anpassungsmethode, die weiteres Training erfordert und die Gewichtung Ihres Modells verändert. 

Die Feinabstimmung kann für Sie nützlich sein, wenn: 
+ Sie Ihr Modell an spezifische Geschäftsanforderungen anpassen müssen.
+ Ihr Modell erfolgreich mit domainspezifischer Sprache wie Branchenjargon, Fachbegriffen oder anderem Fachvokabular arbeiten soll.
+ Sie für bestimmte Aufgaben eine bessere Leistung benötigen.
+ Sie in Anwendungen genaue, relative und kontextsensitive Antworten benötigen.
+ Sie Antworten benötigen, die sachlicher, weniger toxisch und besser auf spezifische Anforderungen zugeschnitten sind.

Es gibt zwei Hauptansätze, die Sie je nach Anwendungsfall und ausgewähltem Grundlagenmodell für die Feinabstimmung wählen können.

1. Wenn Sie daran interessiert sind, Ihr Modell anhand domainspezifischer Daten zu optimieren, finden Sie weitere Informationen unter [Optimieren eines großen Sprachmodells (LLM) mithilfe von Domainanpassung](jumpstart-foundation-models-fine-tuning-domain-adaptation.md).

1. Wenn Sie an einer anweisungsbasierten Feinabstimmung anhand von Beispielen für Eingabeaufforderungen und Antworten interessiert sind, finden Sie weitere Informationen unter [Optimieren eines großen Sprachmodells (LMM) mit Prompt-Anweisungen](jumpstart-foundation-models-fine-tuning-instruction-based.md).

## Verfügbare Basismodelle für die Optimierung
<a name="jumpstart-foundation-models-fine-tuning-models"></a>

Sie können jedes der folgenden JumpStart Foundation-Modelle verfeinern:
+ Bloom 3B
+ Bloom 7B1
+ BloomZ 3B FP16
+ BloomZ 7 B1 FP16
+ Code Llama 13B
+ Code Llama 13B Python
+ Code Llama 34B
+ Code Llama 34B Python
+ Code Llama 70B
+ Code Llama 70B Python
+ Code Llama 7B
+ Code Llama 7B Python
+ CyberAgentLM2-7B-Chat (-7B-Chat) CALM2
+ Falke 40 B BF16
+ Falcon 40B, einweisen BF16
+ Falcon 7B BF16
+ Falcon 7B, instruieren BF16
+ FLAN-T5 Base
+ FLAN-T5 Large
+ FLAN-T5 Small
+ FLAN-T5 XL
+ Flan-T5 XXL
+ Gemma 2B
+ Gemma 2B Instruct
+ Gemma 7B
+ Gemma 7B Instruct
+ GPT-2 XL
+ GPT-J 6B
+ GPT-Neo 1.3B
+ GPT-Neo 125M
+ GPT-NEO 2.7B
+ LightGPT Instruct 6B
+ Llama 2 13B
+ Llama 2 13B Chat
+ Llama 2 13B Neuron
+ Llama 2 70B
+ Llama 2 70B Chat
+ Llama 2 7B
+ Llama 2 7B Chat
+ Llama 2 7B Neuron
+ Mistral 7B
+ Mixtral 8x7B
+ Mixtral 8x7B Instruct
+ RedPajama INCITE Basis 3B V1
+ RedPajama INCITE Basis 7B V1
+ RedPajama INCITE Chat 3B V1
+ RedPajama INCITE Chat 7B V1
+ RedPajama INCITE instruiere 3B V1
+ RedPajama INCITE, Instruktiv 7B V1
+ Stabile Diffusion 2.1

## Häufig unterstützte Hyperparameter bei der Optimierung
<a name="jumpstart-foundation-models-fine-tuning-hyperparameters"></a>

Verschiedene Basismodelle unterstützen bei der Optimierung unterschiedliche Hyperparameter. Die folgenden Hyperparameter, mit denen Sie Ihr Modell während des Trainings weiter anpassen können, werden häufig unterstützt:


| Inferenzparameter | Description | 
| --- | --- | 
| `epoch` | Die Anzahl der Durchläufe, die das Modell während des Trainings durch den Datensatz zur Optimierung durchläuft Muss eine Ganzzahl größer als 1 sein.  | 
| `learning_rate` |  Die Geschwindigkeit, mit der die Modellgewichte aktualisiert werden, nachdem die einzelnen Trainingsbeispiele zur Optimierung durchgearbeitet wurden. Muss ein positiver Gleitkommawert größer als 0 sein.  | 
| `instruction_tuned` |  Ob das Modell per Anweisung trainiert werden soll oder nicht. Es muss sich entweder um `'True'` oder `'False'` handeln.  | 
| `per_device_train_batch_size` |  Die Batchgröße pro GPU-Kern oder CPU für das Training. Muss eine positive Ganzzahl sein. | 
| `per_device_eval_batch_size` |  Die Batchgröße pro GPU-Kern oder CPU für die Bewertung. Muss eine positive Ganzzahl sein.  | 
| `max_train_samples` |  Kürzen Sie die Anzahl der Trainingsbeispiele zum Debuggen oder für ein schnelleres Training auf diesen Wert. Der Wert -1 bedeutet, dass das Modell alle Trainingsbeispiele verwendet. Muss eine positive Ganzzahl oder -1 sein.  | 
| `max_val_samples` |  Kürzen Sie die Anzahl der Validierungsbeispiele zum Debuggen oder für ein schnelleres Training auf diesen Wert. Der Wert -1 bedeutet, dass das Modell alle Validierungsbeispiele verwendet. Muss eine positive Ganzzahl oder -1 sein.  | 
| `max_input_length` |  Maximale Gesamtlänge der Eingabesequenz nach der Tokenisierung. Sequenzen, die länger sind, werden gekürzt. Wenn -1, wird `max_input_length` auf das Minimum von 1024 gesetzt und `model_max_length` wird vom Tokenizer definiert. Wenn der Wert positiv ist, wird `max_input_length` auf das Minimum des angegebenen Werts gesetzt und `model_max_length` wird vom Tokenizer definiert. Muss eine positive Ganzzahl oder -1 sein.  | 
| `validation_split_ratio` |  Verhältnis von Trainings- und Validierungsdaten, in die die Trainingsdaten aufgeteilt wurden, wenn es keinen Validierungskanal gibt. Muss zwischen 0 und 1 liegen.  | 
| `train_data_split_seed` |  Verhindert die zufällige Aufteilung der eingegebenen Trainingsdaten in die vom Modell verwendeten Trainings- und Validierungsdaten, wenn keine Validierungsdaten vorhanden sind. Muss eine Ganzzahl sein.  | 
| `preprocessing_num_workers` |  Die Anzahl der Prozesse, die für die Vorverarbeitung verwendet werden sollen. Wenn `None`, wird der Hauptprozess für die Vorverarbeitung verwendet.  | 
| `lora_r` |  LoRA-Wert (Low-Rank Adaptation), der als Skalierungsfaktor für die Aktualisierung von Gewichtungen dient. Muss eine positive Ganzzahl sein.  | 
| `lora_alpha` |  Alpha-Wert für LoRA (Low-Rank Adaptation), der als Skalierungsfaktor für die Aktualisierung von Gewichtungen dient. Im Allgemeinen das 2- bis 4-Fache der Größe von `lora_r`. Muss eine positive Ganzzahl sein.  | 
| `lora_dropout` |  Der Dropout-Wert für LoRA-Schichten (Low-Rank Adaptation). Muss ein positiver Gleitkommawert zwischen 0 und 1 sein.  | 
| `int8_quantization` |  Wenn `True`, wird das Modell für das Training mit einer Genauigkeit von 8 Bit geladen.  | 
| `enable_fsdp` |  Wenn `True`, wird beim Training Fully Sharded Data Parallelism verwendet.  | 

Sie können Hyperparameterwerte angeben, wenn Sie Ihr Modell in Studio optimieren. Weitere Informationen finden Sie unter [Optimieren eines Modells in Studio](jumpstart-foundation-models-use-studio-updated-fine-tune.md). 

Sie können bei der Feinabstimmung Ihres Modells mit dem SDK auch Standard-Hyperparameterwerte überschreiben. SageMaker Python Weitere Informationen finden Sie unter [Optimieren von öffentlich verfügbaren Basismodellen mit der `JumpStartEstimator`-Klasse](jumpstart-foundation-models-use-python-sdk-estimator-class.md).

# Optimieren eines großen Sprachmodells (LLM) mithilfe von Domainanpassung
<a name="jumpstart-foundation-models-fine-tuning-domain-adaptation"></a>

Die Feinabstimmung der Domainanpassung ermöglicht es Ihnen, vortrainierte Grundlagenmodelle zu nutzen und sie mithilfe begrenzter domainspezifischer Daten an bestimmte Aufgaben anzupassen. Wenn Prompt-Engineering nicht zu einer ausreichenden Anpassung führen, können Sie die Feinabstimmung der Domainanpassung verwenden, damit Ihr Modell mit domainspezifischer Sprache wie Branchenjargon, Fachbegriffen oder anderen Fachdaten arbeiten kann. Durch diesen Feinabstimmungsprozess werden die Gewichtungen des Modells geändert. 

So optimieren Sie Ihr Modell anhand eines Domain-spezifischen Datensatzes:

1. Bereiten Sie Ihre Trainingsdaten vor. Detaillierte Anweisungen finden Sie unter [Vorbereiten und Hochladen von Trainingsdaten zur Optimierung für die Domain](#jumpstart-foundation-models-fine-tuning-domain-adaptation-prepare-data).

1. Erstellen Sie Ihren Trainingsjob zur Optimierung. Detaillierte Anweisungen finden Sie unter [Erstellen eines Trainingsjobs zur Optimierung mithilfe von Anweisungen](#jumpstart-foundation-models-fine-tuning-domain-adaptation-train).

 end-to-endBeispiele finden Sie unter. [Beispiel-Notebooks](#jumpstart-foundation-models-fine-tuning-domain-adaptation-examples)

Die Feinabstimmung der Domainanpassung ist für die folgenden Grundlagenmodelle verfügbar:

**Anmerkung**  
Einige JumpStart Basismodelle, wie Llama 2 7B, erfordern die Annahme einer Endbenutzer-Lizenzvereinbarung, bevor die Feinabstimmung vorgenommen und Inferenzen durchgeführt werden können. Weitere Informationen finden Sie unter [Endbenutzer-Lizenzvereinbarungen](jumpstart-foundation-models-choose.md#jumpstart-foundation-models-choose-eula).
+ Bloom 3B
+ Bloom 7B1
+ BloomZ 3B FP16
+ BloomZ 7 B1 FP16
+ GPT-2 XL
+ GPT-J 6B
+ GPT-Neo 1.3B
+ GPT-Neo 125M
+ GPT-NEO 2.7B
+ Llama 2 13B
+ Llama 2 13B Chat
+ Llama 2 13B Neuron
+ Llama 2 70B
+ Llama 2 70B Chat
+ Llama 2 7B
+ Llama 2 7B Chat
+ Llama 2 7B Neuron

## Vorbereiten und Hochladen von Trainingsdaten zur Optimierung für die Domain
<a name="jumpstart-foundation-models-fine-tuning-domain-adaptation-prepare-data"></a>

Trainingsdaten zur Optimierung für die Domain können im CSV-, JSON- oder TXT-Dateiformat bereitgestellt werden. Alle Trainingsdaten müssen sich in einer einzigen Datei in einem einzigen Ordner befinden.

Die Trainingsdaten stammen aus der **Textspalte** für CSV- oder JSON-Trainingsdatendateien. Wenn keine Spalte mit **Text** gekennzeichnet ist, werden die Trainingsdaten aus der ersten Spalte für CSV- oder JSON-Trainingsdatendateien übernommen.

Im Folgenden finden Sie ein Beispiel für den Hauptteil einer TXT-Datei, die zur Optimierung verwendet werden soll:

```
This report includes estimates, projections, statements relating to our
business plans, objectives, and expected operating results that are “forward-
looking statements” within the meaning of the Private Securities Litigation
Reform Act of 1995, Section 27A of the Securities Act of 1933, and Section 21E
of ....
```

### Aufteilen von Daten zu Trainings- und Testzwecken
<a name="jumpstart-foundation-models-fine-tuning-domain-adaptation-split-data"></a>

Sie können optional einen weiteren Ordner mit Validierungsdaten bereitstellen. Dieser Ordner sollte auch eine CSV-, JSON- oder TXT-Datei enthalten. Wenn kein Validierungsdatensatz bereitgestellt wird, wird eine festgelegte Menge der Trainingsdaten für Validierungszwecke reserviert. Bei der Auswahl der Hyperparameter für die Optimierung Ihres Modells können Sie den Prozentsatz der für die Validierung verwendeten Trainingsdaten anpassen. 

### Hochladen von Optimierungsdaten in Amazon S3
<a name="jumpstart-foundation-models-fine-tuning-domain-adaptation-upload-data"></a>

Laden Sie Ihre vorbereiteten Daten in Amazon Simple Storage Service (Amazon S3) hoch, um sie bei der Feinabstimmung eines JumpStart Basismodells zu verwenden. Sie können zum Hochladen Ihre Daten die folgenden Befehle verwenden:

```
from sagemaker.s3 import S3Uploader
import sagemaker
import random

output_bucket = sagemaker.Session().default_bucket()
local_data_file = "train.txt"
train_data_location = f"s3://{output_bucket}/training_folder"
S3Uploader.upload(local_data_file, train_data_location)
S3Uploader.upload("template.json", train_data_location)
print(f"Training data: {train_data_location}")
```

## Erstellen eines Trainingsjobs zur Optimierung mithilfe von Anweisungen
<a name="jumpstart-foundation-models-fine-tuning-domain-adaptation-train"></a>

Nachdem Ihre Daten auf Amazon S3 hochgeladen wurden, können Sie Ihr JumpStart Basismodell optimieren und bereitstellen. Informationen zur Optimierung Ihres Modells in Studio finden Sie unter [Optimieren eines Modells in Studio](jumpstart-foundation-models-use-studio-updated-fine-tune.md). Informationen zur Feinabstimmung Ihres Modells mithilfe des SageMaker Python SDK finden Sie unter. [Optimieren von öffentlich verfügbaren Basismodellen mit der `JumpStartEstimator`-Klasse](jumpstart-foundation-models-use-python-sdk-estimator-class.md)

## Beispiel-Notebooks
<a name="jumpstart-foundation-models-fine-tuning-domain-adaptation-examples"></a>

Weitere Informationen zur Optimierung für die Domain finden Sie in den folgenden Beispiel-Notebooks:
+ [SageMaker JumpStart Foundation Models — Feinabstimmung des GPT-J 6B-Modells zur Textgenerierung anhand eines domänenspezifischen Datensatzes](https://sagemaker-examples.readthedocs.io/en/latest/introduction_to_amazon_algorithms/jumpstart-foundation-models/domain-adaption-finetuning-gpt-j-6b.html)
+ [Feinabstimmung LLa von MA 2-Modellen auf JumpStart](https://sagemaker-examples.readthedocs.io/en/latest/introduction_to_amazon_algorithms/jumpstart-foundation-models/llama-2-finetuning.html)

# Optimieren eines großen Sprachmodells (LMM) mit Prompt-Anweisungen
<a name="jumpstart-foundation-models-fine-tuning-instruction-based"></a>

Bei der anweisungsbasierten Feinabstimmung werden gekennzeichnete Beispiele verwendet, um die Leistung eines vortrainierten Grundlagenmodells für eine bestimmte Aufgabe zu verbessern. Die gekennzeichneten Beispiele sind als Eingabeaufforderung und Antwortpaare formatiert und als Anweisungen formuliert. Durch diesen Feinabstimmungsprozess werden die Gewichtungen des Modells geändert. Weitere Informationen zur anweisungsbasierten Feinabstimmung finden Sie in den Artikeln [Introducing FLAN: More generalizable Language Models with Instruction Fine-Tuning](https://ai.googleblog.com/2021/10/introducing-flan-more-generalizable.html) und [Scaling Instruction-Finetuned Language Models](https://arxiv.org/abs/2210.11416).

FLAN (Fine-Tuned LAnguage Net) -Modelle nutzen die Befehlsoptimierung, um Modelle für die Lösung allgemeiner nachgelagerter NLP-Aufgaben besser geeignet zu machen. Amazon SageMaker JumpStart bietet eine Reihe von Basismodellen in der FLAN-Modellfamilie an. Bei den FLAN-T5-Modellen sind die Anweisungen beispielsweise auf eine Vielzahl von Aufgaben abgestimmt, um die Zero-Shot-Leistung für eine Vielzahl gängiger Anwendungsfälle zu erhöhen. Mit zusätzlichen Daten und Feinabstimmungen können anweisungsbasierte Modelle weiter an spezifischere Aufgaben angepasst werden, die beim Vortraining nicht berücksichtigt wurden. 

So optimieren Sie ein LLM für eine bestimmte Aufgabe mithilfe von Anweisungen in Form von Prompt-Antwort-Paaren:

1. Bereiten Sie Ihre Anweisungen in JSON-Dateien vor. Weitere Informationen zum erforderlichen Format für die Dateien mit den Prompt-Antwort-Paaren und zur Struktur des Datenordners finden Sie unter [Vorbereiten und Hochladen von Trainingsdaten für die Optimierung mithilfe von Anweisungen](#jumpstart-foundation-models-fine-tuning-instruction-based-prepare-data).

1. Erstellen Sie Ihren Trainingsjob zur Optimierung. Detaillierte Anweisungen finden Sie unter [Erstellen eines Trainingsjobs zur Optimierung mithilfe von Anweisungen](#jumpstart-foundation-models-fine-tuning-instruction-based-train).

 end-to-endBeispiele finden Sie in[Beispiel-Notebooks](#jumpstart-foundation-models-fine-tuning-instruction-based-examples).

Nur ein Teil der Basismodelle ist mit JumpStart der anweisungsbasierten Feinabstimmung kompatibel. Die anweisungsbasierte Feinabstimmung ist für die folgenden Grundlagenmodelle verfügbar: 

**Anmerkung**  
Einige Basismodelle JumpStart , wie Llama 2 7B, erfordern die Annahme einer Endbenutzer-Lizenzvereinbarung, bevor die Feinabstimmung vorgenommen und Inferenzen durchgeführt werden können. Weitere Informationen finden Sie unter [Endbenutzer-Lizenzvereinbarungen](jumpstart-foundation-models-choose.md#jumpstart-foundation-models-choose-eula).
+ FLAN-T5 Base
+ FLAN-T5 Large
+ FLAN-T5 Small
+ FLAN-T5 XL
+ Flan-T5 XXL
+ Llama 2 13B
+ Llama 2 13B Chat
+ Llama 2 13B Neuron
+ Llama 2 70B
+ Llama 2 70B Chat
+ Llama 2 7B
+ Llama 2 7B Chat
+ Llama 2 7B Neuron
+ Mistral 7B
+ RedPajama INCITE Base 3B V1
+ RedPajama INCITE Basis 7B V1
+ RedPajama INCITE Chat 3B V1
+ RedPajama INCITE Chat 7B V1
+ RedPajama INCITE instruiere 3B V1
+ RedPajama INCITE, Instruktiv 7B V1

## Vorbereiten und Hochladen von Trainingsdaten für die Optimierung mithilfe von Anweisungen
<a name="jumpstart-foundation-models-fine-tuning-instruction-based-prepare-data"></a>

Trainingsdaten für die Optimierung mithilfe von Anweisungen müssen im Textdateiformat JSON Lines bereitgestellt werden, wobei jede Zeile ein Wörterbuch ist. Alle Trainingsdaten müssen sich in einem einzigen Ordner befinden. Der Ordner kann mehrere JSONL-Dateien enthalten. 

Der Trainingsordner kann auch eine JSON-Vorlagendatei (`template.json`) enthalten, die die Eingabe- und Ausgabeformate Ihrer Daten beschreibt. Wenn keine Vorlagendatei bereitgestellt wird, wird die folgende Vorlagendatei verwendet: 

```
{
  "prompt": "Below is an instruction that describes a task, paired with an input that provides further context. Write a response that appropriately completes the request.\n\n### Instruction:\n{instruction}\n\n### Input:\n{context}",
  "completion": "{response}"
}
```

Gemäß der `template.json`-Datei muss jeder JSONL-Eintrag der Trainingsdaten die Felder `{instruction}`, `{context}` und `{response}` enthalten. 

Wenn Sie eine benutzerdefinierte JSON-Vorlagendatei bereitstellen, verwenden Sie die Tasten `"completion"` und `"prompt"`, um Ihre eigenen Pflichtfelder zu definieren. Gemäß der folgenden benutzerdefinierten JSON-Vorlagendatei muss jeder JSONL-Eintrag der Trainingsdaten die Felder `{question}`, `{context}` und `{answer}` enthalten:

```
{
  "prompt": "question: {question} context: {context}",
  "completion": "{answer}"
}
```

### Aufteilen von Daten zu Trainings- und Testzwecken
<a name="jumpstart-foundation-models-fine-tuning-instruction-based-split-data"></a>

Sie können optional einen weiteren Ordner mit Validierungsdaten bereitstellen. Dieser Ordner sollte auch eine oder mehrere JSONL-Dateien enthalten. Wenn kein Validierungsdatensatz bereitgestellt wird, wird eine festgelegte Menge der Trainingsdaten für Validierungszwecke reserviert. Bei der Auswahl der Hyperparameter für die Optimierung Ihres Modells können Sie den Prozentsatz der für die Validierung verwendeten Trainingsdaten anpassen. 

### Hochladen von Optimierungsdaten in Amazon S3
<a name="jumpstart-foundation-models-fine-tuning-instruction-based-upload-data"></a>

Laden Sie Ihre vorbereiteten Daten in Amazon Simple Storage Service (Amazon S3) hoch, um sie bei der Feinabstimmung eines JumpStart Basismodells zu verwenden. Sie können zum Hochladen Ihre Daten die folgenden Befehle verwenden:

```
from sagemaker.s3 import S3Uploader
import sagemaker
import random

output_bucket = sagemaker.Session().default_bucket()
local_data_file = "train.jsonl"
train_data_location = f"s3://{output_bucket}/dolly_dataset"
S3Uploader.upload(local_data_file, train_data_location)
S3Uploader.upload("template.json", train_data_location)
print(f"Training data: {train_data_location}")
```

## Erstellen eines Trainingsjobs zur Optimierung mithilfe von Anweisungen
<a name="jumpstart-foundation-models-fine-tuning-instruction-based-train"></a>

Nachdem Ihre Daten auf Amazon S3 hochgeladen wurden, können Sie Ihr JumpStart Basismodell optimieren und bereitstellen. Informationen zur Optimierung Ihres Modells in Studio finden Sie unter [Optimieren eines Modells in Studio](jumpstart-foundation-models-use-studio-updated-fine-tune.md). Informationen zur Feinabstimmung Ihres Modells mithilfe des SageMaker Python SDK finden Sie unter. [Optimieren von öffentlich verfügbaren Basismodellen mit der `JumpStartEstimator`-Klasse](jumpstart-foundation-models-use-python-sdk-estimator-class.md)

## Beispiel-Notebooks
<a name="jumpstart-foundation-models-fine-tuning-instruction-based-examples"></a>

Weitere Informationen zur Optimierung mithilfe von Anweisungen finden Sie in den folgenden Beispiel-Notebooks:
+ [Optimieren Sie LLa MA 2-Modelle auf JumpStart](https://sagemaker-examples.readthedocs.io/en/latest/introduction_to_amazon_algorithms/jumpstart-foundation-models/llama-2-finetuning.html)
+ [Einführung in SageMaker JumpStart — Textgenerierung mit Mistral-Modellen](https://sagemaker-examples.readthedocs.io/en/latest/introduction_to_amazon_algorithms/jumpstart-foundation-models/mistral-7b-instruction-domain-adaptation-finetuning.html)
+ [Einführung in SageMaker JumpStart — Textgenerierung mit Falcon-Modellen](https://sagemaker-examples.readthedocs.io/en/latest/introduction_to_amazon_algorithms/jumpstart-foundation-models/falcon-7b-instruction-domain-adaptation-finetuning.html)
+ [SageMaker JumpStart Foundation Models — Feinabstimmung von HuggingFace Text2Text-Befehlen](https://sagemaker-examples.readthedocs.io/en/latest/introduction_to_amazon_algorithms/jumpstart-foundation-models/instruction-fine-tuning-flan-t5.html)