

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# Amazon Bedrock에서 미세 조정으로 모델 사용자 지정
<a name="custom-model-fine-tuning"></a>

Amazon Bedrock을 사용하면 파운데이션 모델을 훈련하여 특정 작업(미세 조정이라고 함)의 성능을 개선할 수 있습니다. Amazon Nova 모델 미세 조정에 대한 자세한 내용은 [Amazon Nova 모델 미세 조정](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html)을 참조하세요.

## 미세 조정에 지원되는 모델 및 리전
<a name="custom-model-supported"></a>

다음 표에는 미세 조정할 수 있는 파운데이션 모델이 나와 있습니다.


| 제공업체 | 모델 | 모델 ID | 단일 리전 모델 지원 | 
| --- | --- | --- | --- | 
| Amazon | Nova 2 Lite | amazon.nova-2-lite-v1:0:256k |  us-east-1  | 
| Amazon | Nova Canvas | amazon.nova-canvas-v1:0 |  us-east-1  | 
| Amazon | Nova Lite | amazon.nova-lite-v1:0:300k |  us-east-1  | 
| Amazon | Nova Micro | amazon.nova-micro-v1:0:128k |  us-east-1  | 
| Amazon | Nova Pro | amazon.nova-pro-v1:0:300k |  us-east-1  | 
| Amazon | Titan Image Generator G1 v2 | amazon.titan-image-generator-v2:0 |  us-east-1 us-west-2  | 
| Amazon | Titan Multimodal Embeddings G1 | amazon.titan-embbed-image-v 1:0 |  us-east-1 us-west-2  | 
| Anthropic | Claude 3 Haiku | anthropic.claude-3-haiku-20240307-v1:0:200k |  us-west-2  | 
| Meta | Llama 3.1 70B Instruct | meta.llama3-1-70b-instruct-v1:0:128k |  us-west-2  | 
| Meta | Llama 3.1 8B 지침 | meta.llama3-1-8b-instruct-v1:0:128k |  us-west-2  | 
| Meta | Llama 3.2 11B 지침 | meta.llama3-2-11b-instruct-v1:0:128k |  us-west-2  | 
| Meta | Llama 3.2 1B 지침 | meta.llama3-2-1b-instruct-v1:0:128k |  us-west-2  | 
| Meta | Llama 3.2 3B 지침 | meta.llama3-2-3b-instruct-v1:0:128k |  us-west-2  | 
| Meta | Llama 3.2 90B 지침 | meta.llama3-2-90b-instruct-v1:0:128k |  us-west-2  | 
| Meta | Llama 3.3 70B 지침 | meta.llama3-3-70b-instruct-v1:0:128k |  us-west-2  | 

각 모델의 모델 사용자 지정 하이퍼파라미터에 대한 자세한 내용은 섹션을 참조하세요[사용자 지정 모델 하이퍼파라미터](custom-models-hp.md).

# 모델 미세 조정을 위한 데이터 준비
<a name="model-customization-prepare"></a>

사용자 지정 모델에 대한 훈련 및 검증 데이터세트를 준비하려면 각 라인이 하나의 레코드에 해당하는 JSON 객체인 `.jsonl` 파일을 만듭니다. 모델 사용자 지정 작업을 시작하기 전에 최소한 훈련 데이터세트를 준비해야 합니다. 생성하는 파일은 선택한 맞춤화 방법과 모델에 맞는 형식을 준수해야 합니다. 레코드는 모델에 따라 크기 요구 사항을 준수해야 합니다.

스키마 요구 사항에 대한 자세한 내용은 [훈련 및 검증 데이터세트의 모델 요구 사항](#model-training-validation-requirements) 섹션을 참조하세요. 다양한 모델을 사용자 지정하는 데 사용되는 훈련 및 검증 데이터세트에 적용되는 기본 할당량을 확인하려면 AWS 일반 참조의 [Amazon Bedrock 엔드포인트 및 할당량](https://docs.aws.amazon.com/general/latest/gr/bedrock.html)에서 **학습 및 검증 레코드의 합계**를 참조하세요.

검증 데이터세트 지원 여부와 훈련 및 검증 데이터세트의 형식은 다음 요인에 따라 달라집니다.
+ 미세 조정 사용자 지정 작업의 유형입니다.
+ 데이터의 입력 및 출력 양식.

Amazon Nova 모델 미세 조정에 대한 자세한 내용은 [Amazon Nova 모델 미세 조정](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html)을 참조하세요.

## 미세 조정에 지원되는 양식
<a name="model-customization-data-support"></a>

다음 섹션에서는 입력 및 출력 양식별로 구성된 각 모델에서 지원하는 다양한 미세 조정 기능에 대해 설명합니다. Amazon Nova 모델 미세 조정에 대한 자세한 내용은 [Amazon Nova 모델 미세 조정](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html)을 참조하세요.

**Text-to-Text 모델**

Text-to-Text 모델은 대화형 애플리케이션과 비대화형 애플리케이션을 포함한 다양한 텍스트 기반 태스크에 맞게 미세 조정할 수 있습니다. Text-to-Text 모델 미세 조정을 위한 데이터 준비에 대한 자세한 내용은 [text-to-text 모델 미세 조정을 위한 데이터 준비](#preparing-text-data) 섹션을 참조하세요.

다음 비대화 모델은 요약, 번역 및 질문 답변과 같은 태스크에 최적화되어 있습니다.
+ Amazon Titan Text G1 - Express
+ Amazon Titan Text G1 - Lite
+ Amazon Titan Text Premier
+ Cohere Command
+ Cohere Command Light
+ Meta Llama 3.1 8B Instruct
+ Meta Llama 3.1 70B Instruct

다음 대화형 모델은 단일 회전 및 다중 회전 상호 작용을 위해 설계되었습니다. 모델이 Converse API를 사용하는 경우 미세 조정 데이터세트는 Converse API 메시지 형식을 따르고 시스템, 사용자 및 어시스턴트 메시지를 포함해야 합니다. 예시는 [text-to-text 모델 미세 조정을 위한 데이터 준비](#preparing-text-data) 섹션을 참조하세요. Converse API 작업에 대한 자세한 설명은 [Converse API 작업과 대화 수행](conversation-inference.md) 섹션을 참조하세요.
+ Anthropic Claude 3 Haiku
+ Meta Llama 3.2 1B Instruct (대화형 API 형식)
+ Meta Llama 3.2 3B Instruct (대화형 API 형식)
+ Meta Llama 3.2 11B Instruct Vision(Converse API 형식)
+ Meta Llama 3.2 90B Instruct Vision(Converse API 형식)
+ Meta Llama 3.3 70B Vision Instruct(Converse API 형식)

**Text-Image-to-Text 및 Text-to-Image 모델**

다음 모델은 이미지 생성 및 텍스트 이미지 처리를 위한 미세 조정을 지원합니다. 이러한 모델은 텍스트 입력을 기반으로 이미지를 처리 또는 생성하거나 텍스트 입력과 이미지 입력을 모두 기반으로 텍스트를 생성합니다. Text-Image-to-Text 및 Text-to-Image 모델 미세 조정을 위한 데이터 준비에 대한 자세한 내용은 [이미지 및 텍스트 처리 모델을 미세 조정하기 위한 데이터 준비](#preparing-image-text-data) 섹션을 참조하세요.
+ Amazon Titan Image Generator G1 V1
+ Meta Llama 3.2 11B Instruct Vision
+ Meta Llama 3.2 90B Instruct Vision
+ Meta Llama 3.3 70B Vision 지침

**Image-to-Embeddings**

다음 모델은 분류 및 검색과 같은 태스크에 대한 미세 조정을 지원합니다. 이러한 모델은 이미지 입력에서 수치 표현(임베딩)을 생성합니다. Image-to-Embeddings 모델의 미세 조정을 위한 데이터 준비 방법에 대한 정보는 [이미지 생성 및 임베딩 모델을 미세 조정하기 위한 데이터 준비](#preparing-image-generation-data) 섹션을 참조하세요.
+ Amazon Titan Multimodal Embeddings G1
+ Amazon Titan Image Generator G1 V1

## 훈련 및 검증 데이터세트의 모델 요구 사항
<a name="model-training-validation-requirements"></a>

다음 섹션에서는 모델의 훈련 및 검증 데이터세트에 대한 요구 사항을 나열합니다. Amazon Nova 모델의 데이터세트 제약 조건에 대한 자세한 내용은 [Amazon Nova 모델 미세 조정](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html)을 참조하세요.

### Amazon Titan Text Premier
<a name="quotas-cm-titan-premier"></a>


****  

| 설명 | 최대(미세 조정) | 
| --- | --- | 
| 배치 크기가 1인 경우 입력 및 출력 토큰의 합계 | 4,096 | 
| 배치 크기가 2, 3 또는 4인 경우 입력 및 출력 토큰의 합계 | 해당 사항 없음 | 
| 데이터 세트 내 샘플당 문자 할당량 | 토큰 할당량 x 6(추정) | 
| 훈련 데이터 세트 파일 크기 | 1GB | 
| 검증 데이터 세트 파일 크기 | 100MB | 

### Amazon Titan Text G1 - Express
<a name="quotas-cm-titan-text"></a>


****  

| 설명 | 최대(미세 조정) | 
| --- | --- | 
| 배치 크기가 1인 경우 입력 및 출력 토큰의 합계 | 4,096 | 
| 배치 크기가 2, 3 또는 4인 경우 입력 및 출력 토큰의 합계 | 2,048 | 
| 데이터 세트 내 샘플당 문자 할당량 | 토큰 할당량 x 6(추정) | 
| 훈련 데이터 세트 파일 크기 | 1GB | 
| 검증 데이터 세트 파일 크기 | 100MB | 

### Amazon Titan Text G1 - Lite
<a name="quotas-cm-titan-text-lite"></a>


****  

| 설명 | 최대(미세 조정) | 
| --- | --- | 
| 배치 크기가 1 또는 2인 경우 입력 및 출력 토큰의 합계 | 4,096 | 
| 배치 크기가 3, 4, 5, 또는 6인 경우 입력 및 출력 토큰의 합계 | 2,048 | 
| 데이터 세트 내 샘플당 문자 할당량 | 토큰 할당량 x 6(추정) | 
| 훈련 데이터 세트 파일 크기 | 1GB | 
| 검증 데이터 세트 파일 크기 | 100MB | 

### Amazon Titan Image Generator G1 V1
<a name="quotas-cm-titan-image"></a>


****  

| 설명 | 최소(미세 조정) | 최대(미세 조정) | 
| --- | --- | --- | 
| 훈련 샘플의 텍스트 프롬프트 길이(글자 수 기준) | 3 | 1,024 | 
| 훈련 데이터세트의 레코드 | 5 | 10,000 | 
| 입력 이미지 크기 | 0 | 50MB | 
| 입력 이미지 높이(픽셀) | 512 | 4,096 | 
| 입력 이미지 너비(픽셀) | 512 | 4,096 | 
| 입력 이미지 총 픽셀 | 0 | 12,582,912 | 
| 입력 이미지 종횡비 | 1:4 | 4:1 | 

### Amazon Titan Multimodal Embeddings G1
<a name="quotas-cm-titan-mm-embed"></a>


****  

| 설명 | 최소(미세 조정) | 최대(미세 조정) | 
| --- | --- | --- | 
| 훈련 샘플의 텍스트 프롬프트 길이(글자 수 기준) | 0 | 2,560 | 
| 훈련 데이터세트의 레코드 | 1,000 | 500,000 | 
| 입력 이미지 크기 | 0 | 5MB | 
| 입력 이미지 높이(픽셀) | 128 | 4096 | 
| 입력 이미지 너비(픽셀) | 128 | 4096 | 
| 입력 이미지 총 픽셀 | 0 | 12,528,912 | 
| 입력 이미지 종횡비 | 1:4 | 4:1 | 

### Meta Llama 3.1
<a name="quotas-cm-meta-llama-3-1"></a>


****  

| 설명 | 최소(미세 조정) | 최대(미세 조정) | 
| --- | --- | --- | 
| 입력 토큰 | 0 | 16,000 | 
| 출력 토큰 | 0 | 16,000 | 
| 데이터 세트 내 샘플당 문자 할당량 | 0 | 토큰 할당량 x 6(추정) | 
| 입력 및 출력 토큰의 합계 | 0 | 16,000 | 
| 훈련 및 검증 레코드의 합계 | 100 | 10,000(Service Quotas를 사용하여 조정 가능) | 

### Meta Llama 3.2
<a name="quotas-cm-meta-llama-3-2"></a>

Meta Llama-3.2 11B Vision Instruct 및 Meta Llama-3.2 90B Vision Instruct에 지원되는 이미지 형식은 `gif`, `jpeg`, `png` 및 `webp`입니다. 이러한 모델을 미세 조정하는 동안 image-to-token 변환을 추정하려면 이 공식을 근사치(`Tokens = min(2, max(Height // 560, 1)) * min(2, max(Width // 560, 1)) * 1601`)로 사용할 수 있습니다. 이미지는 크기에 따라 약 1,601개에서 6,404개의 토큰으로 변환됩니다.


****  

| 설명 | 최소(미세 조정) | 최대(미세 조정) | 
| --- | --- | --- | 
| 입력 및 출력 토큰의 합계 | 0 | 16,000(10,000: Meta Llama 3.2 90B) | 
| 훈련 및 검증 레코드의 합계 | 100 | 10,000(Service Quotas를 사용하여 조정 가능) | 
| 입력 이미지 크기 - Meta Llama 11B and 90B instruct 모델) | 0 | 10MB | 
| Meta Llama 11B and 90B instruct 모델의 입력 이미지 높이(픽셀) | 10 | 8192 | 
| Meta Llama 11B and 90B90B instruct 모델의 입력 이미지 너비(픽셀) | 10 | 8192 | 

### Meta Llama 3.3
<a name="quotas-cm-meta-llama-3-3"></a>


****  

| 설명 | 최소(미세 조정) | 최대(미세 조정) | 
| --- | --- | --- | 
| 입력 및 출력 토큰의 합계 | 0 | 16000 | 
| 훈련 및 검증 레코드의 합계 | 100 | 10,000(Service Quotas를 사용하여 조정 가능) | 

### CohereCommand
<a name="quotas-cm-cohere-command"></a>


****  

| 설명 | 최대(미세 조정) | 
| --- | --- | 
| 입력 토큰 | 4,096 | 
| 출력 토큰 | 2,048 | 
| 데이터 세트 내 샘플당 문자 할당량 | 토큰 할당량 x 6(추정) | 
| 훈련 데이터세트의 레코드 | 10,000 | 
| 검증 데이터세트의 레코드 | 1,000 | 

### Anthropic Claude 3 Haiku
<a name="anthropic-claude-3-haiku"></a>


****  

| 설명 | 최대(미세 조정) | 
| --- | --- | 
| 최소 레코드 수 | 32 | 
| 최대 훈련 레코드 | 10,000 | 
| 최대 검증 레코드 | 1,000 | 
| 최대 총 레코드 수 | 10,000(Service Quotas를 사용하여 조정 가능) | 
| 최대 토큰 | 32,000 | 
| 최대 훈련 데이터세트 크기 | 10GB | 
| 최대 검증 데이터세트 크기 | 1GB | 

## text-to-text 모델 미세 조정을 위한 데이터 준비
<a name="preparing-text-data"></a>

**참고**  
Amazon Nova 모델 미세 조정에 대한 자세한 내용은 [Amazon Nova 모델 미세 조정](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html)을 참조하세요.

text-to-text 모델을 미세 조정하는 경우 각 JSON 객체는 제공된 텍스트 프롬프트를 기반으로 모델을 원하는 텍스트 출력을 생성하는 방향으로 안내하도록 설계된 구조화된 필드가 포함된 샘플입니다. 데이터 형식은 사용 사례에 따라 다르며 비대화형 사용 사례와 대화형 사용 사례로 광범위하게 분류됩니다.

------
#### [ Non-conversational tasks ]

비대화 태스크에는 지정된 입력에 대해 단일 출력을 생성하는 작업이 포함됩니다. 각 데이터세트 샘플에는 입력 텍스트가 포함된 `prompt` 필드와 예상 출력이 있는 `completion` 필드가 포함됩니다. 이 형식은 질문 응답, 요약, 번역, 텍스트 완성 및 정보 추출과 같은 다양한 태스크를 지원합니다.

형식의 예시

```
{"prompt": "What is the capital of France?", "completion": "The capital of France is Paris."}
{"prompt": "Summarize the article about climate change.", "completion": "Climate change refers to the long-term alteration of temperature and typical weather patterns in a place."}
```

토큰당 약 6자를 사용하여 데이터세트 크기를 계획하기 위한 토큰 수를 추정합니다.

------
#### [ Converse API format (Single turn and Multi turn) ]

Converse API를 사용하려면 `Converse` 또는 `ConverseStream` 작업을 직접적으로 호출하여 모델에 메시지를 보냅니다. `Converse`를 직접적으로 호출하려면 `bedrock:InvokeModel` 작업에 대한 권한이 필요합니다. `ConverseStream`을 직접적으로 호출하려면 `bedrock:InvokeModelWithResponseStream` 작업에 대한 권한이 필요합니다. 자세한 내용은 [Converse API 사용](conversation-inference-call.md) 단원을 참조하십시오. Converse API 작업에 대한 자세한 설명은 [Converse API 작업과 대화 수행](conversation-inference.md) 섹션을 참조하세요.

형식의 예시

```
{
    "schemaVersion": "bedrock-conversation-2024",
    "system": [
        {
            "text": "You are a digital assistant with a friendly personality"
        }
    ],
    "messages": [
        {
            "role": "user",
            "content": [
                {
                    "text": "What is the capital of Mars?"
                }
            ]
        },
        {
            "role": "assistant",
            "content": [
                {
                    "text": "Mars does not have a capital. Perhaps it will one day."
                }
            ]
        }
    ]
}
```

------
#### [ Anthropic Claude 3 Haiku: Single-turn conversations ]

싱글턴 대화 태스크에는 이전 컨텍스트를 고려하지 않고 모델이 현재 사용자 입력만을 기반으로 응답을 생성하는 격리된 교환이 포함됩니다. 각 데이터세트 샘플은 `user` 및 `assistant`의 대체 역할이 있는 메시지 배열을 사용합니다.

형식

```
{"system": "<system message>","messages":[{"role": "user", "content": "<user query>"},{"role": "assistant", "content": "<expected generated text>"}]}
```

예제

```
{"system": "You are an helpful assistant.","messages":[{"role": "user", "content": "what is AWS"},{"role": "assistant", "content": "it's Amazon Web Services."}]}
```

------
#### [ Anthropic Claude 3 Haiku: Multi-turn conversations ]

멀티턴 대화 태스크에는 이전 교환의 컨텍스트를 유지하면서 모델이 응답을 생성해야 하는 확장된 대화가 포함됩니다. 이 형식은 고객 지원 또는 복잡한 토론과 같은 대화형 태스크의 동적 특성을 캡처합니다.

형식

```
{"system": "<system message>","messages":[{"role": "user", "content": "<user query 1>"},{"role": "assistant", "content": "<expected generated text 1>"}, {"role": "user", "content": "<user query 2>"},{"role": "assistant", "content": "<expected generated text 2>"}]}
```

예제

```
{"system": "system message","messages":[{"role": "user", "content": "Hello there."},{"role": "assistant", "content": "Hi, how can I help you?"},{"role": "user", "content": "what are LLMs?"},{"role": "assistant", "content": "LLM means large language model."},]}  
```

------

## 이미지 및 텍스트 처리 모델을 미세 조정하기 위한 데이터 준비
<a name="preparing-image-text-data"></a>

**참고**  
Amazon Nova 모델 미세 조정에 대한 자세한 내용은 [Amazon Nova 모델 미세 조정](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html)을 참조하세요.

image-text-to-text 모델을 미세 조정하는 경우 각 JSON 객체는 사용자의 입력과 어시스턴트의 응답을 나타내는 교대 JSON 객체로 구성된 `messages` 배열로 구조화된 대화를 포함하는 샘플입니다. 사용자 입력에는 텍스트와 이미지가 모두 포함될 수 있지만 어시스턴트 응답은 항상 텍스트입니다. 이 구조는 단일 회전 및 다중 회전 대화 흐름을 모두 지원하므로 모델이 다양한 태스크를 효과적으로 처리할 수 있습니다. Meta Llama-3.2 11B Vision Instruct 및 Meta Llama-3.2 90B Vision Instruct에 지원되는 이미지 형식은 `gif`, `jpeg`, `png` 및 `webp`입니다.

Amazon Bedrock이 이미지 파일에 액세스하도록 허용하려면, 사용자가 설정했거나 콘솔에서 자동으로 설정된 Amazon Bedrock 모델 사용자 지정 서비스 역할에 대한 ([S3의 훈련 및 검증 파일에 액세스하고 S3에 출력 파일을 쓸 수 있는 권한](model-customization-iam-role.md#model-customization-iam-role-s3) 섹션과 유사한) IAM 정책을 추가합니다. 훈련 데이터 세트에 제공하는 Amazon S3 경로는 정책에서 지정하는 폴더에 있어야 합니다.

**싱글턴 대화**

싱글턴 대화를 위한 각 JSON 객체는 사용자 메시지와 어시스턴트 메시지로 구성됩니다. 사용자 메시지에는 *사용자*로 설정된 역할 필드와 입력 모달리티를 설명하는 `type` 필드(*텍스트* 또는 *이미지*)가 있는 배열이 포함된 *콘텐츠* 필드가 포함됩니다. 텍스트 입력의 경우 `content` 필드에는 사용자의 질문 또는 프롬프트가 있는 `text` 필드가 포함됩니다. 이미지 입력의 경우 `content` 필드는 이미지 `format`(예: *jpeg*, *png*)와 이미지의 Amazon S3 위치를 가리키는 `uri`를 통한 자체 `source`를 지정합니다. `uri`는 일반적으로 `s3://<bucket-name>/<path-to-file>` 형식으로 Amazon S3 버킷에 저장된 이미지의 고유한 경로를 나타냅니다. 어시스턴트 메시지에는 *어시스턴트*로 설정된 `role` 필드와 *텍스트*로 설정된 `content` 필드가 있는 배열이 포함된 `type` 필드, 어시스턴트가 생성한 응답이 포함된 `text` 필드가 포함됩니다.

형식의 예제

```
{
    "schemaVersion": "bedrock-conversation-2024",
    "system": [{
        "text": "You are a smart assistant that answers questions respectfully"
    }],
    "messages": [{
            "role": "user",
            "content": [{
                    "text": "What does the text in this image say?"
                },
                {
                    "image": {
                        "format": "png",
                        "source": {
                            "s3Location": {
                                "uri": "s3://your-bucket/your-path/your-image.png",
                                "bucketOwner": "your-aws-account-id"
                            }
                        }
                    }
                }
            ]
        },
        {
            "role": "assistant",
            "content": [{
                "text": "The text in the attached image says 'LOL'."
            }]
        }
    ]
}
```

**멀티턴 대화**

멀티턴 대화를 위한 각 JSON 객체에는 대체 역할이 있는 메시지 시퀀스가 포함되어 있으며, 여기서 사용자 메시지와 어시스턴트 메시지는 일관성 있는 교환을 활성화하도록 일관되게 구성됩니다. 사용자 메시지에는 *사용자*로 설정된 `role` 필드와 입력 양식을 설명하는 `content` 필드가 포함됩니다. 텍스트 입력의 경우 `content` 필드에 사용자의 질문 또는 후속 조치가 포함된 `text` 필드가 포함된 반면, 이미지 입력의 경우 이미지 `format`과 이미지의 Amazon S3 위치를 가리키는 `uri`를 통한 `source`를 지정합니다. `uri`는 s3://<bucket-name>/<path-to-file> 형식의 고유 식별자 역할을 하며 모델이 지정된 Amazon S3 버킷에서 이미지에 액세스할 수 있도록 허용합니다. 어시스턴트 메시지에는 *어시스턴트*로 설정된 `role` 필드와 *텍스트*로 설정된 `content` 필드가 있는 배열이 포함된 `type` 필드, 어시스턴트가 생성한 응답이 포함된 `text` 필드가 포함됩니다. 대화는 여러 교환에 걸쳐 있을 수 있으므로 어시스턴트는 컨텍스트를 유지하고 전체적으로 일관된 응답을 제공할 수 있습니다.

형식의 예제

```
{
    "schemaVersion": "bedrock-conversation-2024",
    "system": [{
        "text": "You are a smart assistant that answers questions respectfully"
    }],
    "messages": [{
            "role": "user",
            "content": [{
                    "text": "What does the text in this image say?"
                },
                {
                    "image": {
                        "format": "png",
                        "source": {
                            "s3Location": {
                                "uri": "s3://your-bucket/your-path/your-image.png",
                                "bucketOwner": "your-aws-account-id"
                            }
                        }
                    }
                }
            ]
        },
        {
            "role": "assistant",
            "content": [{
                "text": "The text in the attached image says 'LOL'."
            }]
        },
        {
            "role": "user",
            "content": [{
                    "text": "What does the text in this image say?"
                }
            ]
        },
        {
            "role": "assistant",
            "content": [{
                "text": "The text in the attached image says 'LOL'."
            }]
        }
        
    ]
}
```

## 이미지 생성 및 임베딩 모델을 미세 조정하기 위한 데이터 준비
<a name="preparing-image-generation-data"></a>

**참고**  
Amazon Nova 모델마다 미세 조정 요구 사항이 다릅니다. 이러한 모델을 미세 조정하려면 [Amazon Nova 모델 미세 조정](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html)의 지침을 따르세요.

텍스트 투 이미지 또는 이미지 투 임베딩 모델의 경우, 훈련 데이터세트를 준비합니다. 검증 데이터세트는 지원되지 않습니다. 각 JSON 객체는 `image-ref`, 이미지용 Amazon S3 URI, 이미지용 프롬프트가 될 수 있는 `caption`이 포함된 샘플입니다.

이미지는 JPEG 또는 PNG 형식이어야 합니다.

```
{"image-ref": "s3://bucket/path/to/image001.png", "caption": "<prompt text>"}
{"image-ref": "s3://bucket/path/to/image002.png", "caption": "<prompt text>"}{"image-ref": "s3://bucket/path/to/image003.png", "caption": "<prompt text>"}
```

예시는 다음과 같습니다.

```
{"image-ref": "s3://amzn-s3-demo-bucket/my-pets/cat.png", "caption": "an orange cat with white spots"}
```

Amazon Bedrock이 이미지 파일에 액세스하도록 허용하려면, 사용자가 설정했거나 콘솔에서 자동으로 설정된 Amazon Bedrock 모델 사용자 지정 서비스 역할에 대한 ([S3의 훈련 및 검증 파일에 액세스하고 S3에 출력 파일을 쓸 수 있는 권한](model-customization-iam-role.md#model-customization-iam-role-s3) 섹션과 유사한) IAM 정책을 추가합니다. 훈련 데이터 세트에 제공하는 Amazon S3 경로는 정책에서 지정하는 폴더에 있어야 합니다.

# 지도 미세 조정으로 Amazon Nova 모델 미세 조정
<a name="nova-2-sft-data-prep"></a>

Amazon Nova 2.0 SFT 데이터는 선택적 추론 콘텐츠 필드를 추가하여 Amazon Nova 1.0과 동일한 Converse API 형식을 사용합니다. 전체 형식 사양은 [ReasoningContentBlock](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ReasoningContentBlock.html) 및 [Converse API 스키마](https://docs.aws.amazon.com/bedrock/latest/userguide/conversation-inference-call.html)를 참조하세요.

**지원되는 기능:**
+ **입력 유형** - 사용자 콘텐츠 블록의 텍스트, 이미지 또는 비디오
+ **보조 콘텐츠** - 텍스트 전용 응답 및 추론 콘텐츠
+ **데이터 세트 구성** - 동종이어야 합니다. 텍스트 전용 회전, 텍스트 \$1 이미지 회전 또는 텍스트 \$1 비디오 회전 중 하나를 선택합니다.

**중요**  
동일한 데이터 세트 내에서 또는 서로 다른 차례로 이미지와 비디오를 혼합할 수 없습니다.

**현재 제한 사항:**
+ **도구 사용** - 도구 사용은 입력 형식으로 지원되지만 현재 Amazon Nova 2.0 SFT에서는 지원되지 않습니다. 도구 섹션을 추가하면 작업이 실패할 수 있습니다.
+ **멀티모달 추론 콘텐츠** - Converse 형식은 이미지 기반 추론 콘텐츠를 지원하지만 Amazon Nova 2.0 SFT에서는 지원되지 않습니다.
+ **검증 세트** - 검증 세트 제공은 UI를 통해 지원되지만 SFT 훈련 중에는 지원되지 않습니다.

**지원되는 미디어 형식:**
+ **이미지** - PNG, JPEG, GIF
+ **비디오** - MOV, MKV, MP4

## 데이터 형식 예제
<a name="nova-2-sft-data-examples"></a>

------
#### [ Text-only ]

이 예제는 Amazon Nova 1.0과 호환되는 기본 텍스트 전용 형식을 보여줍니다.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a digital assistant with a friendly personality"
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "text": "What country is right next to Australia?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "text": "The closest country is New Zealand"
        }
      ]
    }
  ]
}
```

------
#### [ Text with reasoning ]

이 예제에서는 Amazon Nova 2.0에 대한 선택적 추론 콘텐츠가 있는 텍스트를 보여줍니다.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a digital assistant with a friendly personality"
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "text": "What country is right next to Australia?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "reasoningContent": {
            "reasoningText": {
              "text": "I need to use my world knowledge of geography to answer this question"
            }
          }
        },
        {
          "text": "The closest country to Australia is New Zealand, located to the southeast across the Tasman Sea."
        }
      ]
    }
  ]
}
```

**참고**  
현재는 내에서만 지원`reasoningText`됩니다`reasoningContent`. 다중 모달 추론 콘텐츠는 아직 사용할 수 없습니다.

------
#### [ Image \$1 text ]

이 예제에서는 텍스트와 함께 이미지 입력을 포함하는 방법을 보여줍니다.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a helpful assistant."
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "image": {
            "format": "jpeg",
            "source": {
              "s3Location": {
                "uri": "s3://your-bucket/your-path/your-image.jpg",
                "bucketOwner": "your-aws-account-id"
              }
            }
          }
        },
        {
          "text": "Which country is highlighted in the image?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "reasoningContent": {
            "reasoningText": {
              "text": "I will determine the highlighted country by examining its location on the map and using my geographical knowledge"
            }
          }
        },
        {
          "text": "The highlighted country is New Zealand"
        }
      ]
    }
  ]
}
```

------
#### [ Video \$1 text ]

이 예제에서는 비디오 입력을 텍스트와 함께 포함하는 방법을 보여줍니다.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a helpful assistant."
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "video": {
            "format": "mp4",
            "source": {
              "s3Location": {
                "uri": "s3://your-bucket/your-path/your-video.mp4",
                "bucketOwner": "your-aws-account-id"
              }
            }
          }
        },
        {
          "text": "What is shown in this video?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "reasoningContent": {
            "reasoningText": {
              "text": "I will analyze the video content to identify key elements"
            }
          }
        },
        {
          "text": "The video shows a map with New Zealand highlighted"
        }
      ]
    }
  ]
}
```

------

## 추론 콘텐츠
<a name="nova-2-reasoning-modes"></a>

추론 콘텐츠(chain-of-thought이라고도 함)는 최종 답변을 생성하기 전에 모델의 중간 사고 단계를 캡처합니다. 그런 `assistant` 다음 `reasoningContent` 필드를 사용하여 이러한 추론 트레이스를 포함합니다.

**손실 계산 방법:**
+ **추론 콘텐츠 포함** - 훈련 손실에는 추론 토큰과 최종 출력 토큰이 모두 포함됩니다.
+ **추론 콘텐츠 없음** - 훈련 손실은 최종 출력 토큰에서만 계산됩니다.

**추론 모드를 활성화하는 경우:** 모델이 최종 출력을 생성하기 전에 사고 토큰을 생성하도록 하거나 복잡한 추론 작업`reasoning_enabled: true`에서 향상된 성능이 필요한 경우 훈련 구성에서를 설정합니다. 명시적 추론 단계의 이점을 얻지 못하는 간단한 작업을 훈련할 `reasoning_enabled: false` 때를 설정합니다.

**참고**  
훈련 데이터에 추론 콘텐츠가 포함되어 있는지 여부에 관계없이 추론 모드를 활성화할 수 있습니다. 그러나 모델이 이러한 예제에서 학습하고 추론 품질을 개선할 수 있도록 훈련 데이터에 추론 추적을 포함하는 것이 좋습니다.

**형식 지정 지침:**
+ 추론 콘텐츠에는 일반 텍스트를 사용합니다.
+ 작업에 특별히 필요하지 `</thinking>` 않은 한 `<thinking>` 및와 같은 마크업 태그를 사용하지 마세요.
+ 추론 콘텐츠가 명확하고 문제 해결 프로세스와 관련이 있는지 확인합니다.

**효과적인 추론 콘텐츠에는 다음이 포함되어야 합니다.**
+ 중간 사고 및 분석
+ 논리적 공제 및 추론 단계
+ Step-by-step 문제 해결 접근 방식
+ 단계와 결론 간의 명시적 연결

데이터 세트에 추론 추적이 없는 경우 Nova Premier와 같은 추론 지원 모델을 사용하여 생성할 수 있습니다. 모델에 입력-출력 페어를 제공하고 추론 프로세스를 캡처하여 추론 증강 데이터 세트를 구축합니다.

## 데이터 세트 준비 지침
<a name="nova-2-dataset-preparation"></a>

다음 표에는 훈련 데이터 세트를 준비하기 위한 지침이 나와 있습니다.


**데이터 세트 준비 지침**  

| 지침 | 설명 | 
| --- | --- | 
| 크기 및 품질 |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 
| 다양성 |  다음을 수행하는 다양한 예제를 포함합니다. [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 
| 출력 형식 |  어시스턴트 응답에서 원하는 출력 형식을 명확하게 지정합니다. 예를 들어 JSON 구조, 테이블, CSV 형식 또는 애플리케이션별 사용자 지정 형식이 있습니다.  | 
| 멀티턴 대화 |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 
| 품질 체크리스트 |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 

# 사용자 지정 모델 하이퍼파라미터
<a name="custom-models-hp"></a>

다음 참조 콘텐츠는 각 Amazon Bedrock 사용자 지정 모델을 훈련하는 데 사용할 수 있는 하이퍼파라미터를 다룹니다.

하이퍼파라미터는 학습률 또는 에포크 수와 같은 훈련 프로세스를 제어하는 파라미터입니다. Amazon Bedrock [콘솔](model-customization-submit.md)을 사용하거나 [CreateModelCustomizationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelCustomizationJob.html) API 작업을 호출하여 미세 조정 작업을 제출할 때 사용자 지정 모델 훈련용 하이퍼파라미터를 설정합니다.

## Amazon Nova 모델 사용자 지정 하이퍼파라미터 이해
<a name="cm-hp-nova-mm"></a>

Amazon Nova Lite Amazon Nova Micro 및 Amazon Nova Pro 모델은 모델 사용자 지정을 위해 다음과 같은 하이퍼파라미터를 지원합니다. 자세한 내용은 [모델을 사용자 지정하여 사용 사례에 맞게 성능 개선](custom-models.md) 단원을 참조하십시오.

 Amazon Nova 모델 미세 조정에 대한 자세한 내용은 [Amazon Nova 모델 미세 조정](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html)을 참조하세요.

지정하는 에포크 수는 더 많은 토큰을 처리하여 모델 사용자 지정 비용을 높입니다. 각 에포크는 전체 훈련 데이터세트를 한 번 처리합니다. 요금에 대한 자세한 내용은 [Amazon Bedrock 요금](https://aws.amazon.com/bedrock/pricing)을 참조하세요.


****  

| 하이퍼파라미터(콘솔) | 하이퍼파라미터(API) | 정의 | Type | 최소 | 최대 | 기본값 | 
| --- | --- | --- | --- | --- | --- | --- | 
| 에포크 | epochCount | 전체 훈련 데이터 세트를 통한 반복 횟수 | 정수 | 1 | 5 | 2 | 
| 학습률 | learningRate | 각 배치 이후 모델 파라미터가 업데이트되는 비율 | 실수 | 1.00E-6 | 1.00E-4 | 1.00E-5 | 
| 학습률 워밍업 단계 | learningRateWarmupSteps | 학습률이 지정된 비율까지 점진적으로 증가하는 반복 횟수입니다. | 정수 | 0 | 100 | 10 | 

기본 에포크 번호는 2이며 대부분의 경우에 작동합니다. 일반적으로 데이터 세트가 클수록 수렴하는 데 필요한 에포크 수가 적고, 데이터 세트가 작을수록 수렴하는 데 더 많은 에포크가 필요합니다. 학습률을 높여서 수렴 속도를 높일 수도 있지만, 수렴 시 학습 불안정으로 이어질 수 있으므로 이는 바람직하지 않습니다. 복잡성과 데이터 크기가 다양한 태스크에 대한 평가를 기반으로 한 기본 하이퍼파라미터로 시작하는 것이 좋습니다.

워밍업 중에 학습 속도가 설정 값으로 점진적으로 증가합니다. 따라서 학습 샘플이 작을 때는 큰 워밍업 값을 피하는 것이 좋습니다. 학습 속도가 학습 과정 중에 설정 값에 도달하지 못할 수도 있기 때문입니다. 데이터세트 크기를 Amazon Nova Micro의 경우 640, Amazon Nova Lite의 경우 160, Amazon Nova Pro의 경우 320으로 나누어 워밍업 단계를 설정하는 것이 좋습니다.

## Amazon Nova Canvas 모델 사용자 지정 하이퍼파라미터
<a name="cm-hp-nova-canvas"></a>

Amazon Nova Canvas 모델은 모델 사용자 지정을 위해 다음과 같은 하이퍼파라미터를 지원합니다.


****  

| 하이퍼파라미터(콘솔) | 하이퍼파라미터(API) | 정의 | 최소 | 최대 | 기본값 | 
| --- | --- | --- | --- | --- | --- | 
| 배치 크기 | batchSize | 모델 파라미터를 업데이트하기 전에 처리된 샘플 수 | 8 | 192 | 8 | 
| 단계(Steps) | StepCount | 모델이 각 배치에 노출된 횟수 | 10 | 20,000건 | 500 | 
| 학습률 | learningRate | 각 배치 이후 모델 파라미터가 업데이트되는 비율 | 1.00E-7 | 1.00E-4 | 1.00E-5 | 

## Amazon Titan Text 모델 사용자 지정 하이퍼파라미터
<a name="cm-hp-titan-text"></a>

Amazon Titan Text Premier 모델은 모델 사용자 지정을 위해 다음과 같은 하이퍼파라미터를 지원합니다. 지정하는 에포크 수는 더 많은 토큰을 처리하여 모델 사용자 지정 비용을 높입니다. 각 에포크는 전체 훈련 데이터세트를 한 번 처리합니다. 요금에 대한 자세한 내용은 [Amazon Bedrock 요금](https://aws.amazon.com/bedrock/pricing)을 참조하세요.


****  

| 하이퍼파라미터(콘솔) | 하이퍼파라미터(API) | 정의 | Type | 최소 | 최대 | 기본값 | 
| --- | --- | --- | --- | --- | --- | --- | 
| 에포크 | epochCount | 전체 훈련 데이터 세트를 통한 반복 횟수 | 정수 | 1 | 5 | 2 | 
| 배치 크기(마이크로) | batchSize | 모델 파라미터를 업데이트하기 전에 처리된 샘플 수 | 정수 | 1 | 1 | 1 | 
| 학습률 | learningRate | 각 배치 이후 모델 파라미터가 업데이트되는 비율 | 실수 | 1.00E-7 | 1.00E-05 | 1.00E-06 | 
| 학습률 워밍업 단계 | learningRateWarmupSteps | 학습률이 지정된 비율까지 점진적으로 증가하는 반복 횟수입니다. | 정수 | 0 | 20 | 5 | 

Lite 및 Express와 같은 Amazon Titan Text 모델은 모델 사용자 지정을 위해 다음과 같은 하이퍼파라미터를 지원합니다. 지정하는 에포크 수는 더 많은 토큰을 처리하여 모델 사용자 지정 비용을 높입니다. 각 에포크는 전체 훈련 데이터세트를 한 번 처리합니다. 요금에 대한 자세한 내용은 [Amazon Bedrock 요금](https://aws.amazon.com/bedrock/pricing)을 참조하세요.


****  

| 하이퍼파라미터(콘솔) | 하이퍼파라미터(API) | 정의 | Type | 최소 | 최대 | 기본값 | 
| --- | --- | --- | --- | --- | --- | --- | 
| 에포크 | epochCount | 전체 훈련 데이터 세트를 통한 반복 횟수 | 정수 | 1 | 10 | 5 | 
| 배치 크기(마이크로) | batchSize | 모델 파라미터를 업데이트하기 전에 처리된 샘플 수 | 정수 | 1 | 64 | 1 | 
| 학습률 | learningRate | 각 배치 이후 모델 파라미터가 업데이트되는 비율 | 실수 | 0.0 | 1 | 1.00E-5 | 
| 학습률 워밍업 단계 | learningRateWarmupSteps | 학습률이 지정된 비율까지 점진적으로 증가하는 반복 횟수입니다. | 정수 | 0 | 250 | 5 | 

## Amazon Titan Image Generator G1 모델 사용자 지정 하이퍼파라미터
<a name="cm-hp-titan-image"></a>

Amazon Titan Image Generator G1 모델은 모델 사용자 지정을 위해 다음과 같은 하이퍼파라미터를 지원합니다.

**참고**  
`stepCount`에는 기본값이 없으므로 기본값을 지정해야 합니다. `stepCount`는 `auto` 값을 지원합니다. `auto`는 데이터세트의 크기를 기반으로 숫자를 자동으로 결정하여 훈련 비용보다 모델 성능을 우선시합니다. 훈련 작업 비용은 `auto`에서 결정되는 숫자에 따라 달라집니다. 작업 비용 계산 방법을 이해하고 관련 예제를 보려면 [Amazon Bedrock 요금](https://aws.amazon.com/bedrock/pricing)을 참조하세요.


****  

| 하이퍼파라미터(콘솔) | 하이퍼파라미터(API) | 정의 | 최소 | 최대 | 기본값 | 
| --- | --- | --- | --- | --- | --- | 
| 배치 크기 | batchSize | 모델 파라미터를 업데이트하기 전에 처리된 샘플 수 | 8 | 192 | 8 | 
| 단계(Steps) | StepCount | 모델이 각 배치에 노출된 횟수 | 10 | 40,000 | 해당 사항 없음 | 
| 학습률 | learningRate | 각 배치 이후 모델 파라미터가 업데이트되는 비율 | 1.00E-7 | 1 | 1.00E-5 | 

## Amazon Titan Multimodal Embeddings G1 사용자 지정 하이퍼파라미터
<a name="cm-hp-titan-mm"></a>

Amazon Titan Multimodal Embeddings G1 모델은 모델 사용자 지정을 위해 다음과 같은 하이퍼파라미터를 지원합니다. 지정하는 에포크 수는 더 많은 토큰을 처리하여 모델 사용자 지정 비용을 높입니다. 각 에포크는 전체 훈련 데이터세트를 한 번 처리합니다. 요금에 대한 자세한 내용은 [Amazon Bedrock 요금](https://aws.amazon.com/bedrock/pricing)을 참조하세요.

**참고**  
`epochCount`에는 기본값이 없으므로 기본값을 지정해야 합니다. `epochCount`는 `Auto` 값을 지원합니다. `Auto`는 데이터세트의 크기를 기반으로 숫자를 자동으로 결정하여 훈련 비용보다 모델 성능을 우선시합니다. 훈련 작업 비용은 `Auto`에서 결정되는 숫자에 따라 달라집니다. 작업 비용 계산 방법을 이해하고 관련 예제를 보려면 [Amazon Bedrock 요금](https://aws.amazon.com/bedrock/pricing)을 참조하세요.


****  

| 하이퍼파라미터(콘솔) | 하이퍼파라미터(API) | 정의 | Type | 최소 | 최대 | 기본값 | 
| --- | --- | --- | --- | --- | --- | --- | 
| 에포크 | epochCount | 전체 훈련 데이터 세트를 통한 반복 횟수 | 정수 | 1 | 100 | 해당 사항 없음 | 
| 배치 크기 | batchSize | 모델 파라미터를 업데이트하기 전에 처리된 샘플 수 | 정수 | 256 | 9,216 | 576 | 
| 학습률 | learningRate | 각 배치 이후 모델 파라미터가 업데이트되는 비율 | 실수 | 5.00E-8 | 1 | 5.00E-5 | 

## Anthropic Claude 3 모델 사용자 지정 하이퍼파라미터
<a name="cm-hp-anth-claude-3"></a>

Anthropic Claude 3 모델은 모델 사용자 지정을 위해 다음과 같은 하이퍼파라미터를 지원합니다. 지정하는 에포크 수는 더 많은 토큰을 처리하여 모델 사용자 지정 비용을 높입니다. 각 에포크는 전체 훈련 데이터세트를 한 번 처리합니다. 요금에 대한 자세한 내용은 [Amazon Bedrock 요금](https://aws.amazon.com/bedrock/pricing)을 참조하세요.


****  

| 콘솔 이름 | API 이름 | 정의 | 기본값 | 최소 | 최대 | 
| --- | --- | --- | --- | --- | --- | 
| Epoch 수 | epochCount | 전체 훈련 데이터세트를 통한 최대 반복 횟수 | 2 | 1 | 10 | 
| 배치 크기  | batchSize | 모델 파라미터를 업데이트하기 전에 처리된 샘플 수 | 32 | 4 | 256 | 
| 학습률 멀티플라이어 | learningRateMultiplier | 각 배치 이후 모델 파라미터가 업데이트될 때 학습률에 영향을 미치는 멀티플라이어 | 1 | 0.1 | 2 | 
| 조기 중지 임계값 | earlyStoppingThreshold | 훈련 프로세스의 조기 종료를 방지하는 데 필요한 검증 손실의 최소 개선 | 0.001 | 0 | 0.1 | 
| 조기 중지 허용 한도 | earlyStoppingPatience | 훈련 프로세스를 중단하기 전 검증 손실 지표의 정체에 대한 허용 오차 | 2 | 1 | 10 | 

## Cohere Command 모델 사용자 지정 하이퍼파라미터
<a name="cm-hp-cohere-command"></a>

Cohere Command 및 Cohere Command Light 모델은 모델 사용자 지정을 위해 다음과 같은 하이퍼파라미터를 지원합니다. 지정하는 에포크 수는 더 많은 토큰을 처리하여 모델 사용자 지정 비용을 높입니다. 각 에포크는 전체 훈련 데이터세트를 한 번 처리합니다. 요금에 대한 자세한 내용은 [Amazon Bedrock 요금](https://aws.amazon.com/bedrock/pricing)을 참조하세요. 자세한 내용은 [모델을 사용자 지정하여 사용 사례에 맞게 성능 개선](custom-models.md) 단원을 참조하십시오.

 Cohere 모델을 미세 조정하는 방법에 대한 자세한 내용은 [https://docs.cohere.com/docs/fine-tuning](https://docs.cohere.com/docs/fine-tuning)의 Cohere 설명서를 참조하세요.

**참고**  
`epochCount` 할당량은 조정이 가능합니다.


****  

| 하이퍼파라미터(콘솔) | 하이퍼파라미터(API) | 정의 | Type | 최소 | 최대 | 기본값 | 
| --- | --- | --- | --- | --- | --- | --- | 
| 에포크 | epochCount | 전체 훈련 데이터 세트를 통한 반복 횟수 | 정수 | 1 | 100 | 1 | 
| 배치 크기 | batchSize | 모델 파라미터를 업데이트하기 전에 처리된 샘플 수 | 정수 | 8 | 8 (Command)32 (Light) | 8 | 
| 학습률 | learningRate | 각 배치 이후 모델 파라미터가 업데이트되는 비율 검증 데이터세트를 사용하는 경우 learningRate에 대한 값을 제공하지 않는 것이 좋습니다. | 실수 | 5.00E-6 | 0.1 | 1.00E-5 | 
| 조기 중지 임계값 | earlyStoppingThreshold | 훈련 프로세스의 조기 종료를 방지하는 데 필요한 손실의 최소 개선 | 실수 | 0 | 0.1 | 0.01 | 
| 조기 중지 허용 한도 | earlyStoppingPatience | 훈련 프로세스를 중단하기 전 손실 지표의 정체에 대한 허용 오차 | 정수 | 1 | 10 | 6 | 
| 평가 백분율 | evalPercentage |  모델 평가를 위해 할당된 데이터세트의 백분율(별도의 검증 데이터세트를 제공하지 않은 경우)  | 실수 | 5 | 50 | 20 | 

## Meta Llama 3.1 모델 사용자 지정 하이퍼파라미터
<a name="cm-hp-meta-llama31"></a>

Meta Llama 3.1 8B 및 70B 모델은 모델 사용자 지정을 위해 다음과 같은 하이퍼파라미터를 지원합니다. 지정하는 에포크 수는 더 많은 토큰을 처리하여 모델 사용자 지정 비용을 높입니다. 각 에포크는 전체 훈련 데이터세트를 한 번 처리합니다. 요금에 대한 자세한 내용은 [Amazon Bedrock 요금](https://aws.amazon.com/bedrock/pricing)을 참조하세요. 자세한 내용은 [모델을 사용자 지정하여 사용 사례에 맞게 성능 개선](custom-models.md) 단원을 참조하십시오.

 미세 조정 Meta Llama 모델에 대한 자세한 내용은 [https://ai.meta.com/llama/get-started/\$1fine-tuning](https://ai.meta.com/llama/get-started/#fine-tuning)에서 Meta 설명서를 참조하세요.

**참고**  
`epochCount` 할당량은 조정이 가능합니다.


****  

| 하이퍼파라미터(콘솔) | 하이퍼파라미터(API) | 정의 | 최소 | 최대 | 기본값 | 
| --- | --- | --- | --- | --- | --- | 
| 에포크 | epochCount | 전체 훈련 데이터 세트를 통한 반복 횟수 | 1 | 10 | 5 | 
| 배치 크기 | batchSize | 모델 파라미터를 업데이트하기 전에 처리된 샘플 수 | 1 | 1 | 1 | 
| 학습률 | learningRate | 각 배치 이후 모델 파라미터가 업데이트되는 비율 | 5.00E-6 | 0.1 | 1.00E-4 | 

## Meta Llama 3.2 모델 사용자 지정 하이퍼파라미터
<a name="cm-hp-meta-llama32"></a>

Meta Llama 3.2 1B, 3B, 11B, 90B 모델은 모델 사용자 지정을 위해 다음과 같은 하이퍼파라미터를 지원합니다. 지정하는 에포크 수는 더 많은 토큰을 처리하여 모델 사용자 지정 비용을 높입니다. 각 에포크는 전체 훈련 데이터세트를 한 번 처리합니다. 요금에 대한 자세한 내용은 [Amazon Bedrock 요금](https://aws.amazon.com/bedrock/pricing)을 참조하세요. 자세한 내용은 [모델을 사용자 지정하여 사용 사례에 맞게 성능 개선](custom-models.md) 단원을 참조하십시오.

 미세 조정 Meta Llama 모델에 대한 자세한 내용은 [https://ai.meta.com/llama/get-started/\$1fine-tuning](https://ai.meta.com/llama/get-started/#fine-tuning)에서 Meta 설명서를 참조하세요.


****  

| 하이퍼파라미터(콘솔) | 하이퍼파라미터(API) | 정의 | 최소 | 최대 | 기본값 | 
| --- | --- | --- | --- | --- | --- | 
| 에포크 | epochCount | 전체 훈련 데이터 세트를 통한 반복 횟수 | 1 | 10 | 5 | 
| 배치 크기 | batchSize | 모델 파라미터를 업데이트하기 전에 처리된 샘플 수 | 1 | 1 | 1 | 
| 학습률 | learningRate | 각 배치 이후 모델 파라미터가 업데이트되는 비율 | 5.00E-6 | 0.1 | 1.00E-4 | 

# 미세 조정을 위한 모델 사용자 지정 작업 제출
<a name="model-customization-submit"></a>

Amazon Bedrock 콘솔 또는 API에서 미세 조정을 사용하여 사용자 지정 모델을 생성할 수 있습니다. 기존 사용자 지정 모델을 추가로 미세 조정할 수 있습니다. 사용자 지정 작업은 몇 시간이 걸릴 수 있습니다. 작업 기간은 훈련 데이터의 크기(레코드 수, 입력 토큰 수, 출력 토큰 수), 에포크 수, 배치 크기에 따라 달라집니다.

## 사전 조건
<a name="submit-model-customization-job-prerequisites"></a>
+  AWS Identity and Access Management (IAM) 서비스 역할을 생성하여 모델 사용자 지정 훈련 및 검증 데이터를 저장하려는 S3 버킷에 액세스합니다. 를 사용하거나 AWS Management Console 수동으로이 역할을 자동으로 생성할 수 있습니다. 수동 옵션에 대한 자세한 내용은 [모델 사용자 지정을 위한 IAM 서비스 역할 생성](custom-model-job-access-security.md#custom-model-job-service-role) 섹션을 참조하세요.
+ (선택 사항) 입력 및 출력 데이터, 사용자 지정 작업 또는 사용자 지정 모델에 대한 추론 요청을 암호화할 수 있습니다. 자세한 내용은 [사용자 지정 모델 암호화](encryption-custom-job.md) 단원을 참조하십시오.
+ (선택 사항) 가상 프라이빗 클라우드(VPC)를 생성하여 사용자 지정 작업을 보호할 수 있습니다. 자세한 내용은 [(선택 사항) VPC를 사용하여 모델 사용자 지정 작업 보호](custom-model-job-access-security.md#vpc-model-customization) 단원을 참조하십시오.

## 작업 제출
<a name="submit-model-customization-job-how-to"></a>

원하는 방법의 탭을 선택한 후 다음 단계를 따릅니다.

------
#### [ Console ]

콘솔에서 모델 사용자 지정 작업을 제출하려면 다음 단계를 수행합니다.

1. Amazon Bedrock 콘솔을 사용할 권한이 있는 IAM 자격 증명 AWS Management Console 으로에 로그인합니다. 그 다음 [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock)에서 Amazon Bedrock 콘솔을 엽니다.

1. 왼쪽 탐색 창의 **조정**에서 **사용자 지정 모델**을 선택합니다.

1. **모델** 탭에서 **모델 사용자 지정**을 선택한 다음 **미세 조정 작업 생성을** 선택합니다.

1. **모델 세부 정보** 섹션에서 다음을 수행합니다.

   1. 자체 데이터로 사용자 지정할 모델을 선택하고 결과 모델에 이름을 지정합니다. 파운데이션 모델 또는 이전에 사용자 지정된 모델(미세 조정 또는 추출)을 기본 모델로 선택할 수 있습니다.

   1. (선택 사항) 기본적으로 Amazon Bedrock은 AWS에서 소유하고 관리하는 키로 모델을 암호화합니다. [사용자 지정 KMS 키](encryption-custom-job.md)를 사용하려면 **모델 암호화**를 선택하고 키를 선택합니다.

   1. (선택 사항) 사용자 지정 모델에 [태그](tagging.md)를 연결하려면 **태그** 섹션을 확장하고 **새 태그 추가**를 선택합니다.

1. **작업 구성** 섹션에서 작업 이름을 입력하고, 필요한 경우 작업에 연결할 태그를 추가합니다.

1. (선택 사항) [가상 프라이빗 클라우드(VPC)를 사용하여 훈련 데이터 및 사용자 지정 작업을 보호](custom-model-job-access-security.md#vpc-model-customization)하려면 **VPC 설정** 섹션에서 입력 데이터 및 출력 데이터 Amazon S3 위치, 서브넷, 보안 그룹이 포함된 VPC를 선택합니다.
**참고**  
VPC 구성이 포함된 경우, 콘솔은 해당 작업에 대한 새 서비스 역할을 만들 수 없습니다. [사용자 지정 서비스 역할을 만들고](model-customization-iam-role.md) [모델 사용자 지정 역할에 VPC 권한 연결](custom-model-job-access-security.md#vpc-data-access-role)에 설명된 예제와 유사한 권한을 추가합니다.

1. **입력 데이터** 섹션에서 훈련 데이터세트 파일의 S3 위치를 선택하고, 해당하는 경우 검증 데이터세트 파일을 선택합니다.

1. **하이퍼파라미터** 섹션에서 훈련에 사용할 [하이퍼파라미터](custom-models-hp.md) 값을 입력합니다.

1. **출력 데이터** 섹션에서 Amazon Bedrock이 작업 출력을 저장해야 하는 Amazon S3 위치를 입력합니다. Amazon Bedrock은 각 에포크의 훈련 손실 지표와 검증 손실 지표를 지정한 위치에서 별도의 파일에 저장합니다.

1. **서비스 액세스** 섹션에서 다음 중 하나를 선택합니다.
   + **기존 서비스 역할 사용** - 드롭다운 목록에서 서비스 역할을 선택합니다. 적절한 권한이 있는 사용자 지정 역할을 설정하는 방법에 대한 자세한 내용은 [모델 사용자 지정을 위한 서비스 역할 생성](model-customization-iam-role.md) 섹션을 참조하세요.
   + **새 서비스 역할 생성 및 사용** - 서비스 역할의 이름을 입력합니다.

1. **모델 미세 조정**을 선택하여 작업을 시작합니다.

------
#### [ API ]

**요청**

[Amazon Bedrock 컨트롤 플레인 엔드포인트](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp)를 사용하여 [CreateModelCustomizationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelCustomizationJob.html)(요청 및 응답 형식과 필드 세부 정보는 링크 참조) 요청을 전송해 모델 사용자 지정 작업을 제출합니다. 다음 필드는 반드시 제공해야 합니다.
+ `roleArn` – 모델을 사용자 지정할 수 있는 권한이 있는 서비스 역할의 ARN입니다. 콘솔을 사용하는 경우 Amazon Bedrock이 적절한 권한이 있는 역할을 자동으로 만들 수 있으며, 아니면 [모델 사용자 지정을 위한 서비스 역할 생성](model-customization-iam-role.md)의 단계에 따라 사용자 지정 역할을 만들 수 있습니다.
**참고**  
`vpcConfig` 필드를 포함하는 경우 역할에 VPC에 액세스할 수 있는 적절한 권한이 있어야 합니다. 문제 해결 예는 [모델 사용자 지정 역할에 VPC 권한 연결](custom-model-job-access-security.md#vpc-data-access-role)을 참조하세요.
+ `baseModelIdentifier` - 사용자 지정할 파운데이션 모델 또는 이전에 사용자 지정된 모델(미세 조정 또는 추출)의 모델 [ID](models-supported.md) 또는 ARN입니다.
+ `customModelName` - 새로 사용자 지정된 모델에 설정할 이름입니다.
+ `jobName` - 훈련 작업에 설정할 이름입니다.
+ `hyperParameters` – 모델 사용자 지정 프로세스에 영향을 미치는 [하이퍼파라미터](custom-models-hp.md)입니다.
+ `trainingDataConfig` - 훈련 데이터세트의 Amazon S3 URI를 포함하는 객체입니다. 사용자 지정 방법 및 모델에 따라 `validationDataConfig`를 포함할 수도 있습니다. 데이터세트 준비에 대한 자세한 내용은 [모델 미세 조정을 위한 데이터 준비](model-customization-prepare.md) 섹션을 참조하세요.
+ `validationDataconfig` - 검증 데이터세트의 Amazon S3 URI를 포함하는 객체입니다.
+ `outputDataConfig` - 출력 데이터를 작성할 Amazon S3 URI를 포함하는 객체입니다.

`customizationType`을 지정하지 않으면 모델 사용자 지정 방법의 기본값은 `FINE_TUNING`입니다.

요청이 두 번 이상 완료되지 않도록 하려면 `clientRequestToken`을 포함합니다.

추가 구성을 위해 다음과 같은 선택적 필드를 포함할 수 있습니다.
+ `jobTags` 또는 `customModelTags` - [태그](tagging.md)를 사용자 지정 작업 또는 결과로 만들어진 사용자 지정 모델과 연결합니다.
+ `customModelKmsKeyId` - [사용자 지정 KMS 키](encryption-custom-job.md)를 포함하여 사용자 지정 모델을 암호화합니다.
+ `vpcConfig` - [훈련 데이터와 사용자 지정 작업을 보호할 수 있도록 가상 프라이빗 클라우드(VPC)](custom-model-job-access-security.md#vpc-model-customization)에 대한 구성을 포함합니다.

**응답**

응답은 작업을 [모니터링](model-customization-monitor.md)하거나 [중지](model-customization-stop.md)하는 데 사용할 수 있는 `jobArn`을 반환합니다.

[코드 예시 보기](model-customization-code-samples.md)

------