

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# Studio에서 모델 미세 조정
<a name="jumpstart-foundation-models-use-studio-updated-fine-tune"></a>

미세 조정을 사용하면 처음부터 훈련하지 않고도 새 데이터세트를 기반으로 사전 훈련된 모델을 훈련시킬 수 있습니다. 전이 학습이라고도 하는 이 프로세스를 통해 더 작은 데이터세트를 사용하고 훈련 시간을 단축하여 정확한 모델을 생성할 수 있습니다. JumpStart 파운데이션 모델을 미세 조정하려면 Studio UI에서 모델 세부 정보 카드로 이동합니다. Studio에서 JumpStart를 여는 방법에 대한 자세한 내용은 [Studio에서 JumpStart 열기](studio-jumpstart.md#jumpstart-open-studio) 섹션을 참조하세요. 선택한 모델 세부 정보 카드로 이동한 후 오른쪽 상단 모서리에서 **훈련**을 선택합니다. 일부 모델에는 미세 조정을 사용할 수 없습니다.

**중요**  
일부 파운데이션 모델은 미세 조정 전 EULA(최종 사용자 라이선스 계약)을 명시적으로 수락해야 합니다. 자세한 내용은 [Amazon SageMaker Studio에서의 EULA 수락](jumpstart-foundation-models-choose.md#jumpstart-foundation-models-choose-eula-studio) 섹션을 참조하세요.

## 모델 설정
<a name="jumpstart-foundation-models-use-studio-updated-fine-tune-model"></a>

Amazon SageMaker Studio에서 사전 훈련된 JumpStart 파운데이션 모델을 사용하는 경우 **모델 아티팩트 위치(Amazon S3 URI)**가 기본적으로 채워집니다. 기본 Amazon S3 URI를 편집하려면 **모델 아티팩트 위치 입력**을 선택합니다. 일부 모델은 모델 아티팩트 위치 변경을 지원하지 않습니다.

## 데이터 설정
<a name="jumpstart-foundation-models-use-studio-updated-fine-tune-data"></a>

**데이터** 필드에서 훈련 데이터세트 위치에 Amazon S3 URI 포인트를 제공합니다. 기본 Amazon S3 URI는 예제 훈련 데이터세트를 가리킵니다. 기본 Amazon S3 URI를 편집하려면 **훈련 데이터세트 입력**을 선택하고 URI를 변경합니다. 훈련 데이터 형식 지정에 대한 자세한 내용은 Amazon SageMaker Studio의 모델 세부 정보 카드를 검토하세요.

## 하이퍼파라미터
<a name="jumpstart-foundation-models-use-studio-updated-fine-tune-hyperparameters"></a>

모델을 미세 조정하는 데 사용되는 훈련 작업의 하이퍼파라미터를 사용자 지정할 수 있습니다. 미세 조정 가능한 각 모델에 사용할 수 있는 하이퍼파라미터는 모델에 따라 다릅니다.

모델 간에 일반적으로 사용되는 하이퍼파라미터는 다음과 같습니다.
+ **에포크** – 한 에포크는 전체 데이터세트를 한 번 순환하는 것입니다. 여러 간격으로 하나의 배치가 완성되고, 여러 배치가 모여 결국 한 에포크를 완성하게 됩니다. 모델의 정확도가 허용 가능한 수준에 도달하거나 오류율이 허용 수준 아래로 떨어질 때까지 여러 에포크가 실행됩니다.
+ **학습률** – 에포크 간에 값을 변경해야 하는 양. 모델이 세분화됨에 따라 내부 가중치를 조정하고 오류율을 점검하여 모델이 개선되는지 확인합니다. 일반적인 학습률은 0.1 또는 0.01인데, 0.01은 훨씬 작은 조정으로 인해 훈련이 수렴되는 데 오랜 시간이 걸릴 수 있는 반면, 0.1은 훨씬 커서 훈련이 오버슈팅될 수 있습니다. 이는 모델 훈련을 위해 조정할 수 있는 기본 하이퍼파라미터 중 하나입니다. 텍스트 모델의 경우 학습률이 훨씬 낮을수록(BERT의 경우 5e–5) 모델이 더 정확할 수 있습니다.
+ **배치 크기** – 각 간격마다 선택하여 훈련을 위해 GPU로 보낼 데이터세트의 레코드 수입니다.

Studio UI의 모델 세부 정보 카드에서 도구 팁 프롬프트와 추가 정보를 검토하여 원하는 모델에 맞는 하이퍼파라미터에 대해 자세히 알아봅니다.

사용 가능한 하이퍼파라미터에 대한 자세한 내용은 [일반적으로 지원되는 미세 조정 하이퍼파라미터](jumpstart-foundation-models-fine-tuning.md#jumpstart-foundation-models-fine-tuning-hyperparameters) 섹션을 참조하세요.

## 배포
<a name="jumpstart-foundation-models-use-studio-updated-fine-tune-instance"></a>

훈련 작업의 훈련 인스턴스 유형 및 출력 아티팩트 위치를 지정합니다. Studio UI 미세 조정 내에서 원하는 모델과 호환되는 인스턴스만 선택할 수 있습니다. 기본 출력 아티팩트 위치는 SageMaker AI의 기본 버킷입니다. 출력 아티팩트 위치를 변경하려면 **출력 아티팩트 위치 입력**으 선택하고 Amazon S3 URI를 변경합니다.

## 보안
<a name="jumpstart-foundation-models-use-studio-updated-fine-tune-security"></a>

SageMaker AI가 모델을 훈련시키는 데 사용하는 IAM 역할, 훈련 작업을 가상 프라이빗 클라우드(VPC)에 연결해야 하는지 여부, 데이터 보안을 위한 암호화 키를 포함하여 훈련 작업에 사용할 보안 설정을 지정합니다.

## 추가 정보
<a name="jumpstart-foundation-models-use-studio-updated-fine-tune-additional-info"></a>

**추가 정보** 필드에서 훈련 작업 이름을 편집할 수 있습니다. 키-값 페어의 형태로 태그를 추가하고 제거하여 미세 조정 훈련 작업을 구성하고 분류하는 데 도움이 될 수도 있습니다.

미세 조정 구성에 대한 정보를 제공한 후 **제출**을 선택합니다. 미세 조정을 선택한 사전 훈련된 파운데이션 모델에 훈련 전에 최종 사용자 라이선스 계약(EULA)의 명시적 동의가 필요한 경우, EULA가 팝업 창에 제공됩니다. EULA 약관에 동의하려면 **수락**을 선택합니다. 사용자는 모델을 다운로드하거나 사용하기 전에 해당 라이선스 조건을 검토 및 준수하고 사용 사례에 적합한지 확인해야 합니다.