

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# PySpark 분석 템플릿을 사용하여 구성된 테이블에서 PySpark 작업 실행
<a name="run-jobs-with-analysis-template"></a>

이 절차에서는 콘솔에서 AWS Clean Rooms PySpark 분석 템플릿을 사용하여 **사용자 지정** 분석 규칙을 사용하여 구성된 테이블을 분석하는 방법을 보여줍니다.

**PySpark 분석 템플릿을 사용하여 구성된 테이블에서 PySpark 작업을 실행하려면**

에 로그인 AWS Management Console 하고 [https://console.aws.amazon.com/cleanrooms](https://console.aws.amazon.com/cleanrooms/home) AWS Clean Rooms 콘솔을 엽니다.

1. 왼쪽 탐색 창에서 **공동 작업**을 선택합니다.

1. **멤버 기능** 상태가 **작업 실행**인 공동 작업을 선택합니다.

1. **분석** 탭의 **테이블** 섹션에서 테이블과 관련 분석 규칙 유형(**사용자 지정 분석 규칙**)을 확인합니다.
**참고**  
목록에 예상한 테이블이 보이지 않는 경우 다음과 같은 이유가 있을 수 있습니다.  
테이블이 [연결](associate-configured-table.md)되지 않았습니다.
테이블에는 [분석 규칙이 구성](add-analysis-rule.md)되어 있지 않습니다.

1. **분석** 섹션의 **분석 모드에서** **분석 템플릿 실행**을 선택합니다.

1. 분석 템플릿 드롭다운 목록에서 PySpark **분석 템플릿을** 선택합니다.

   PySpark 분석 템플릿의 파라미터는 **정의**에 자동으로 채워집니다.

1. 분석 템플릿에 파라미터가 정의된 경우 **파라미터**에서 파라미터 값을 입력합니다.

   1. 각 파라미터에 대해 **파라미터 이름과** **기본값**(구성된 경우)을 확인합니다.

   1. 재정의하려는 각 파라미터의 **값을** 입력합니다.
**참고**  
값을 제공하지 않지만 기본값이 있는 경우 기본값이 사용됩니다.
**중요**  
파라미터 값은 최대 1,000자까지 가능하며 UTF-8 인코딩을 지원합니다. 모든 파라미터 값은 문자열로 처리되고 컨텍스트 객체를 통해 사용자 스크립트로 전달됩니다.  
사용자 스크립트가 파라미터 값을 안전하게 검증하고 처리하는지 확인합니다. 보안 파라미터 처리에 대한 자세한 내용은 섹션을 참조하세요[PySpark 분석 템플릿에서 파라미터 작업](pyspark-parameter-handling.md).

1. 지원되는 **작업자 유형**과 **작업자 수**를 지정합니다.

   다음 표를 사용하여 사용 사례에 필요한 유형과 수 또는 작업자를 결정합니다.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/clean-rooms/latest/userguide/run-jobs-with-analysis-template.html)
**참고**  
작업자 유형과 작업자 수가 다르면 관련 비용이 발생합니다. 요금에 대한 자세한 내용은 [AWS Clean Rooms 요금을](https://aws.amazon.com/clean-rooms/pricing/) 참조하세요.

1. **실행**을 선택합니다.
**참고**  
결과를 받을 수 있는 구성원이 작업 결과 설정을 구성하지 않은 경우 작업을 실행할 수 없습니다.

1. 파라미터를 계속 조정하고 작업을 다시 실행하거나 **\$1** 버튼을 선택하여 새 탭에서 새 작업을 시작합니다.