책임 있는 AI 도구 키트 및 콘텐츠 조정
책임 있는 AI 도구 키트
Nova Forge는 훈련 프로세스 중에 모델을 Amazon Nova의 책임 있는 AI 지침에 맞추기 위한 훈련 및 평가 데이터를 포함하는 책임 있는 AI 툴킷을 제공하고 추론 중에 모델 응답을 조정하기 위한 런타임 제어를 제공합니다.
훈련 데이터 - 책임 있는 AI 원칙, 안전 고려 사항 및 책임 있는 기술 배포를 강조하는 사례 및 시나리오를 데이터 혼합에 사용하여 지속적인 사전 훈련 중에 모델을 책임감 있게 조정할 수 있습니다.
평가 - 부적절하거나 유해하거나 잘못된 콘텐츠를 감지 및 거부하는 모델의 기능을 테스트하는 평가는 기본 모델 성능과 사용자 지정 모델 성능 간 델타를 결정하는 벤치마크 태스크로 사용할 수 있습니다.
런타임 제어 - 기본적으로 Amazon Nova의 런타임은 추론 중에 중간 모델 응답을 제어합니다. 이러한 런타임 제어를 수정하려면 AWS 계정 관리자에게 문의하여 Amazon Nova의 사용자 지정 가능한 콘텐츠 조정 설정을 요청합니다.
보안은 AWS 및 사용자 간의 공동 책임입니다. 기본 모델을 변경하거나 지속적인 사전 훈련을 사용하여 특정 사용 사례의 성능을 개선하면 새 모델의 안전성, 공정성 및 기타 속성에 영향을 미칠 수 있습니다. 강력한 적응 방법은 기본 모델에 빌드된 안전, 공정성 및 기타 보호 기능의 변경을 최소화하는 동시에 모델이 사용자 지정되지 않은 태스크의 모델 성능에 미치는 영향을 최소화합니다. 테스트 결과가 안전성, 공정성 및 기타 속성과 전반적인 효과에 대한 특정 기대치를 충족하는지 확인하려면 사용 사례를 대표하는 데이터세트에서 애플리케이션을 포괄적으로 테스트해야 합니다. 자세한 내용은 Amazon Web Services 책임 있는 AI 사용 가이드, Amazon Web Services 책임 있는 AI 정책, Amazon Web Services 이용 정책, Amazon Web Services 서비스 약관을 참조하세요.