

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 데이터 레이크
<a name="data-connections"></a>

 AWS Supply Chain 를 사용하여 다음 데이터 소스에 저장된 데이터를 수집하고 공급망 정보를 추출할 수 있습니다. AWS Supply Chain 는 추출된 정보를 Amazon S3 버킷에 저장하고 *Demand Planning*, *Insights*, *Supply Planning*, *N-Tier Visibility*, *Work Order Insights 및 Sustainability에 데이터를 사용할 수 있습니다*. ** 
+ **Amazon S3 소스 데이터** - ERP 시스템이 없거나 다른 추출 도구를 사용하는 경우 Amazon S3 데이터 소스 흐름 옵션을 사용할 수 있습니다. 데이터 소스에서 원시 데이터를 추출하고 데이터 AWS Supply Chain 모델로 데이터 필드를 매핑한 다음 원하는 통합 도구를 사용하여 Amazon S3에 업로드할 수 있습니다. 자동 연결을 사용하는 경우에만 Amazon S3에 CSV 파일을 업로드할 수 있습니다.
+ **전자 데이터 교환(EDI)** - AWS Supply Chain 은 EDI 메시지 850, 860 및 856에 대해 X12 ANSI 버전 4010을 지원합니다. 지원하는 데이터 형식은 .edi 또는 .txt입니다. 원하는 통합 도구를 사용하여 원시 EDI 메시지를 Amazon S3에 추가할 수 있습니다. AWS Supply Chain 는 EDI 856용 NLP(자연어 처리)의 기본 템플릿을 사용하여 원시 EDI 메시지를 추출하고 연결할 수 있습니다. NLP 템플릿은 EDI 850 및 860에서 지원되지 않으며 사전 정의되었지만 사용자 지정 가능한 레시피가 함께 제공됩니다 AWS Supply Chain.
+ **SAP S/4HANA** - SAP S/4HANA 데이터 소스에서 공급망 데이터를 추출하려면 Amazon AppFlow 커넥터를 사용하여이 소스에 연결할 AWS Supply Chain 수 있습니다.는를 사용하여 SAP S/4HANA 시스템에 저장된 공급망 데이터를 AWS Supply Chain 데이터 모델에 연결할 AWS Supply Chain 수 있습니다 AWS Glue DataBrew.
+  **SAP ECC 6.0** - 통합 도구(예: ETL 또는 iPaaS)를 사용하여 SAP ECC 6.0 시스템에 저장된 공급망 데이터를 추출하고 API를 사용하여 Amazon S3 버킷에 넣을 수 있습니다.는 SAP ECC 6.0 시스템에 저장된 공급망 데이터를 DataBrew를 사용하여 AWS Supply Chain 데이터 모델에 연결할 AWS Supply Chain 수 있습니다.

**Topics**
+ [데이터 레이크에 사용되는 용어](data_lake_terminology.md)
+ [데이터 레이크 대시보드](data_ingestion.md)
+ [새 데이터 소스 추가](adding_new_flows.md)
+ [기존 연결에 대한 데이터 수집](ingesting-data.md)

# 데이터 레이크에 사용되는 용어
<a name="data_lake_terminology"></a>

데이터 레이크에서 사용되는 용어는 다음과 같습니다.
+ **엔터티** - 각 범주의 데이터 객체에 관한 정보입니다. 예를 들어 회사, 지역, trading\$1partner는 조직의 엔터티입니다. 자세한 내용은 [에서 사용되는 데이터 엔터티 및 열 AWS Supply Chain](data-model.md) 단원을 참조하십시오.
+ **데이터 세트** - 엔터티와 관련된 정보입니다. 엔터티당 하나의 데이터 세트만 있을 수 있습니다.
+ **커넥터** – 데이터를 AWS Supply Chain으로 가져오는 방법입니다.
+ **레시피** - 소스 데이터를 하나의 데이터 세트에 매핑하는 방법을 설명하는 일련의 단계입니다.
+ **소스 흐름1** - 업로드한 데이터 세트와 필드를 표시합니다.
+ **대상 흐름1** - 데이터 세트의 데이터를 데이터 레이크의 AWS Supply Chain 데이터 엔터티에 연결합니다.
+ **소스 시스템1** - 기존 엔터프라이즈 리소스 계획(ERP) 시스템, 창고 관리 시스템(WMS) 또는 공급망 데이터 관리 시스템.

1 - 이러한 용어는 Amazon S3(또는 웹 애플리케이션의 **CSV 업로드** 옵션)를 통해 데이터를 수집할 때만 표시됩니다.

# 데이터 레이크 대시보드
<a name="data_ingestion"></a>

 AWS Supply Chain 데이터 레이크를 사용하여 다양한 데이터 소스에서 데이터를 수집할 수 있습니다. 지원되는 데이터 소스에 대한 자세한 내용은 섹션을 참조하세요[데이터 레이크](data-connections.md).

![\[데이터 레이크 개요\]](http://docs.aws.amazon.com/ko_kr/aws-supply-chain/latest/userguide/images/data_lake_overvoew.png)


## 데이터 수집
<a name="ingestion"></a>

현재 연결, 소스 및 대상 흐름을 볼 수 있습니다. 수집된 데이터의 상태를 보려면 아래 절차를 따르세요.

1.  AWS Supply Chain 대시보드의 왼쪽 탐색 창에서 **Data Lake**를 선택한 다음 **Data Ingestion** 탭을 선택합니다.

   **데이터 수집** 페이지가 나타납니다.  
![\[데이터 레이크 수집\]](http://docs.aws.amazon.com/ko_kr/aws-supply-chain/latest/userguide/images/data-lake-ingestion.png)

1. **소스 흐름** 탭을 선택합니다.
   + 소스 흐름 - 업로드된 데이터 세트의 파일 또는 폴더 구조를 표시합니다.
   + S3 접두사 - 소스 파일이 업로드되는 Amazon S3 경로를 표시합니다.
   + 상태 - 소스 파일의 업로드 상태를 표시합니다.
   + 마지막 동기화 - 파일이 마지막으로 동기화되거나 업데이트된 시간을 표시합니다.
   + 작업 - 다음을 볼 수 있습니다.
     + 흐름 관리 - 데이터 매핑을 업데이트할 수 있습니다.
     + 파일 업로드 - 기존 소스 흐름에 소스 파일을 추가할 수 있습니다.
     + 흐름 삭제 - 소스 흐름을 완전히 삭제할 수 있습니다.

1. **대상 흐름** 탭을 선택합니다.

1. **작업**에서 **흐름 관리를** 선택하여 데이터 매핑을 보고 업데이트합니다.

   **대상 흐름 관리 페이지가** 나타납니다.  
![\[데이터 레이크 워크플로\]](http://docs.aws.amazon.com/ko_kr/aws-supply-chain/latest/userguide/images/data-lake-flow.png)

1. 연결되지 않은 소스 열을 **소스 열**에서 **대상 열**로 이동합니다.

1. **대상 흐름 종료 및 검토를** 선택하여 **대상 흐름** 페이지로 돌아가 대상 흐름을 검토합니다.

1. **연결** 탭을 선택합니다.

   기존 연결을 모두 볼 수 있습니다.

## 데이터세트
<a name="viewing-datasets"></a>

수집된 데이터 세트의 상태를 볼 수 있습니다.

기존 연결에 업로드된 모든 데이터 세트를 보려면 아래 절차를 따르세요.

1.  AWS Supply Chain 대시보드의 왼쪽 탐색 창에서 **Data Lake**를 선택한 다음 **데이터세트** 탭을 선택합니다.

   **데이터 세트 페이지가** 나타납니다.

1. 데이터 세트를 보려면 **보기**를 선택합니다.

1. **데이터 세트 필드** 탭에서 데이터 세트의 기존 데이터 세트 필드를 모두 볼 수 있습니다.

1. **소스 연결** 탭에서 해당 데이터 세트를 제공하는 연결을 볼 수 있습니다.

# 데이터 품질
<a name="data_quality_datalake"></a>

식별된 모든 데이터 품질 오류는 웹 애플리케이션에서 모듈 오류 아래에 표시됩니다. 오류가 있는 데이터 세트와 영향을 받는 AWS Supply Chain 모듈을 볼 수 있습니다. 또한 Amazon S3 버킷에서 데이터 품질 보고서를 다운로드할 수 있습니다. 이 보고서는 수집된 데이터의 데이터 세트 오류에 대한 자세한 정보를 제공합니다.

## 데이터 품질 보고서 보기
<a name="data_qual"></a>

 AWS Supply Chain 모듈 오류를 보려면 다음 단계를 완료하세요.

**참고**  
각 AWS Supply Chain 모듈의 필수 및 선택적 데이터 엔터티에 대한 자세한 내용은 [AWS Supply Chain에 사용되는 데이터 엔터티 및 열 아래의 수요 계획, 인사이트 및](https://docs.aws.amazon.com/aws-supply-chain/latest/userguide/data-model.html) 작업 주문 인사이트 섹션을 참조하세요.

1.  AWS Supply Chain 대시보드의 왼쪽 탐색 창에서 **Data Lake**를 선택한 다음 **Data Quality** 탭을 선택합니다.

1. **모듈 오류** 탭을 선택합니다. AWS Supply Chain 모듈의 데이터 수집 오류를 볼 수 있습니다.
**참고**  
첫 번째 수집이 완료되고 대상 흐름이 성공한 후 데이터 세트 오류와 영향을 받는 모듈을 볼 수도 있습니다. 대상 흐름이 실패하면 대상 흐름 탭의 **세부 정보** 열에서 데이터 품질 오류를 볼 수 있습니다. **** 

   **모듈** 드롭다운 상자에서 다음 필터를 사용하여 오류를 필터링할 수 있습니다.
   + 모두
   + 여러 애플리케이션
   + Demand Planning
   + 인사이트
   + 주문 인사이트  
![\[모듈 필터 드롭다운 상자.\]](http://docs.aws.amazon.com/ko_kr/aws-supply-chain/latest/userguide/images/module_filters.png)

1. **영향을 받는 모듈** 및 **상태 메시지** 열에서 데이터 품질 오류를 확인합니다.

   **영향받는 모듈** 열에는 AWS Supply Chain 애플리케이션과 영향을 받은 관련 기능이 표시됩니다.

   **상태 메시지** 열에는 제품 개체와 각 제품 개체의 오류 수가 표시됩니다. 예를 들어 ""channel\$1id" 필드에 null 또는 빈 값이 있습니다..." 오류는 수집된 outbound\$1order\$1line 파일의 "channel\$1id" 열에 데이터가 누락되었음을 의미합니다.  
![\[영향을 받는 모듈 및 상태 메시지 열.\]](http://docs.aws.amazon.com/ko_kr/aws-supply-chain/latest/userguide/images/data_quality_columns.png)

## 데이터 품질 보고서 다운로드
<a name="data_qual_reports"></a>

데이터 품질 보고서를 다운로드하려면 다음 단계를 완료합니다.

1. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/) Amazon S3 콘솔을 열고 로그인합니다.

1. **aws-supply-chain-data** 인스턴스 ID 폴더로 이동한 다음 **data-quality-report**로 이동합니다.

1. 보려는 데이터 개체의 폴더를 선택합니다.

   각 데이터 수집에 대한 개별 폴더가 나타납니다.  
![\[데이터 수집 폴더가 있는 제품 데이터 개체 폴더.\]](http://docs.aws.amazon.com/ko_kr/aws-supply-chain/latest/userguide/images/data_entity_folder.png)

1. 보려는 데이터 수집 폴더를 선택합니다.

   데이터 품질 보고서가 나타납니다.  
![\[데이터 품질 보고서 json 파일.\]](http://docs.aws.amazon.com/ko_kr/aws-supply-chain/latest/userguide/images/data_quality_report.png)

1. 파일을 선택하고 **다운로드**를 선택하여 json 형식으로 데이터 품질 보고서를 다운로드합니다.

# 새 데이터 소스 추가
<a name="adding_new_flows"></a>

 AWS Supply Chain 를 사용하여 데이터 소스에 저장된 데이터를 수집하고 공급망 정보를 추출할 수 있습니다. AWS Supply Chain 는 추출된 정보를 Amazon S3 버킷에 저장하고 *Demand Planning*, *Insights*, *Supply Planning*, *N-Tier Visibility*, *Work Order Insights 및 Sustainability에 데이터를 사용할 수 있습니다*. ** 

**Topics**
+ [데이터를 수집하기 위한 사전 조건](#data_prerequisites-profiles)
+ [처음으로 파일 업로드](uploading_files.md)
+ [EDI에 연결](connecting-edi.md)
+ [S/4 HANA에 연결](connecting-sap-hana.md)
+ [SAP ECC 6.0에 연결](connecting-sap-ecc.md)
+ [공급 계획을 위한 새 아웃바운드 소스 추가](adding_new_outbound_connector.md)

## 데이터를 수집하기 위한 사전 조건
<a name="data_prerequisites-profiles"></a>

수집을 위해 데이터 세트를 업로드하기 전에 다음 사항에 유의하세요.
+ 업로드하는 파일은 5GB 미만이어야 합니다.
+ 데이터 세트의 콘텐츠는 UTF-8 인코딩 형식을 따라야 합니다.
+ 커넥터에서 파일 유형을 지원해야 합니다. SAP 시스템용 커넥터는 CSV를 지원하고, EDI 커넥터는 .txt 및 .edi 형식을 지원하며, Amazon S3는 CSV를 지원합니다.
+ 데이터 행에는 필수 필드에 대한 null이 아닌 값이 포함되어야 합니다.
+ 날짜 및 시간 형식은 ISO8601 표준을 따라야 합니다. 예를 들어 2020-07-10 15:00:00.000은 2020년 7월 10일 오후 3시를 나타냅니다.
+ 데이터 세트의 열 이름에는 공백이나 특수 문자가 포함되어서는 안 됩니다. 열 이름은 두 단어 사이에 밑줄(\$1)로 구분해야 합니다.
+ Amazon S3 소스 경로를 사용할 때 AWS Supply Chain 는 선택한 소스 시스템의 이름을 따서 라는 상위 폴더를 생성합니다. 하위 폴더의 이름은 선택한 소스 테이블의 이름을 따서 지정됩니다. 파일 이름이 고유한지 확인합니다. 빌드하는 파일 구조는 Amazon S3 경로를 생성하는 데 사용됩니다.
+ AWS Supply Chain 는 미리 할당된 URLs을 사용하여 다단계 업로드 프로세스를 따릅니다. 브라우저 보안 제한으로 인해 데이터 세트를 업로드하려면 S3 버킷 크로스 오리진 리소스 공유(CORS) 권한이 *PUT* 요청을 허용하고 *ETag* 헤더를 반환해야 합니다. Amazon S3 버킷에서 CORS 정책을 업데이트하려면 **연결**에서 CORS로 스크롤하여 다음 정책을 붙여넣습니다.

  ```
                  
   [
   {
   "AllowedHeaders": [
   "*"
   ],
   "AllowedMethods": [
   "PUT"
   ],
   "AllowedOrigins": [
   "https://instance-id.scn.global.on.aws"
   ],
   "ExposeHeaders": [
   "Etag"
   ]
   }
   ]
  ```

# 처음으로 파일 업로드
<a name="uploading_files"></a>

 AWS Supply Chain 자동 연결 기능을 사용하여 원시 데이터를 업로드하고 원시 데이터를 AWS Supply Chain 데이터 모델과 자동으로 연결할 수 있습니다. AWS Supply Chain 웹 애플리케이션 내의 각 AWS Supply Chain 모듈에 *필요한* 열과 테이블을 볼 수도 있습니다.

자동 연결 작동 방식에 대한 간략한 데모를 보려면 다음 비디오를 시청하세요.




**참고**  
자동 연결을 사용하는 경우에만 Amazon S3에 CSV 파일을 업로드할 수 있습니다.

데이터 세트의 소스 열이 대상 열과 연결되면 AWS Supply Chain 가 SQL 레시피를 자동으로 생성합니다.

**참고**  
AWS Supply Chain 는 Amazon Bedrock for Auto-association을 사용하며,에서 AWS Supply Chain 사용할 수 있는 모든 &AWS Regions에서 지원되지 않습니다. 따라서 AWS Supply Chain 는 가장 가까운 가용 리전인 유럽(아일랜드) 리전 - 유럽(프랑크푸르트) 및 아시아 태평양(시드니) 리전 - 미국 서부(오레곤)에서 Amazon Bedrock 엔드포인트를 호출합니다.

**참고**  
대규모 언어 모델(LLM)을 사용한 자동 연결은 Amazon S3를 통해 데이터를 수집하는 경우에만 지원됩니다.

1.  AWS Supply Chain 대시보드의 왼쪽 탐색 창에서 **Data Lake**를 선택한 다음 **Data Ingestion** 탭을 선택합니다.

   **데이터 수집** 페이지가 나타납니다.

1. **새 소스 추가**를 선택합니다.

   **데이터 소스 선택** 페이지가 나타납니다.

1. **데이터 소스 선택** 페이지에서 **파일 업로드**를 선택합니다.

1. **Continue(계속)**을 선택합니다.  
![\[소스 파일 업로드\]](http://docs.aws.amazon.com/ko_kr/aws-supply-chain/latest/userguide/images/data_lake.png)

1. **실행하려는 기능** 페이지에서 사용할 AWS Supply Chain 모듈을 선택합니다. 모듈을 두 개 이상 선택할 수 있습니다.

1. **소스 파일 업로드** 섹션에서 **소스 시스템 이름**에 접미사를 추가합니다. 예: oracle\$1test.

1. 소스 데이터 세트를 업로드하려면 **파일을** 선택하거나 파일을 끌어서 놓습니다.

   이름과 상태의 소스 테이블이 표시됩니다.

1. **S3에 업로드**를 선택합니다. *업로드 상태가* 변경되어 상태가 표시됩니다.

1. **데이터 요구 사항 검토**에서 선택한 AWS Supply Chain 기능에 필요한 모든 데이터 엔터티와 열을 검토합니다. 필요한 모든 기본 및 외래 키가 표시됩니다.

1. **Continue(계속)**을 선택합니다.

1. **소스 테이블 관리**에서 다음 소스 테이블과 나열된 열이 자동으로 연결되고 데이터 레이크로 가져옵니다.

   데이터 레이크로 가져오기 전에 **테이블 삭제**를 선택하여 소스 테이블을 삭제합니다.  
![\[소스 파일 관리\]](http://docs.aws.amazon.com/ko_kr/aws-supply-chain/latest/userguide/images/data_lake1.png)

1. **모두 수락 및 계속**을 선택합니다.

   테이블을 AWS Supply Chain 데이터 레이크에 자동 연결하는 방법에 대한 메시지가 표시됩니다.  
![\[대상 흐름 관리\]](http://docs.aws.amazon.com/ko_kr/aws-supply-chain/latest/userguide/images/data_lake3.png)

1. **대상 흐름 관리**에서 각 자동 연결 테이블을 검토할 수 있습니다.

   기본적으로 **자동 연결이** 활성화되고 소스 열이 대상 열과 자동 연결됩니다. 자동 연결 열을 업데이트하려면 SQL 레시피를 업데이트하여 사용자 지정 레시피를 생성할 수 있습니다.

1. **소스 열**에는 연결되지 않은 모든 소스 열이 나열됩니다. 연결되지 않은 열을 오른쪽의 **대상 열**로 끌어서 놓습니다.

1. 각 자동 연결 테이블에 대해 이전 단계를 따릅니다.

1. **제출**을 선택합니다.

1. **종료 및 대상 흐름 검토를** 선택합니다.

# 기존 소스에 후속 파일 업로드
<a name="incremental_file_upload"></a>

후속 데이터 세트를 기존 소스에 업로드하는 방법에는 두 가지가 있습니다. **소스 흐름** 탭 아래에 표시된 Amazon S3 경로에 데이터 세트를 업로드하거나 **작업** 탭에서 **파일 업로드**를 선택할 수 있습니다.

자동 커넥터를 사용하거나, 스크립트를 실행하거나, 미들웨어 솔루션을 사용하여 데이터세트를 수집하는 경우 **소스 흐름** 탭 아래에 표시된 Amazon S3 경로로 Amazon S3 경로를 업데이트 AWS Supply Chain해야 합니다.

**참고**  
동일한 파일 이름을 가진 기존 파일이 Amazon S3에 다시 업로드되면는 Amazon S3에서 파일을 AWS Supply Chain 덮어씁니다.

![\[후속 파일 업로드를 위한 데이터 수집\]](http://docs.aws.amazon.com/ko_kr/aws-supply-chain/latest/userguide/images/Data_lake_upload.png)


# EDI에 연결
<a name="connecting-edi"></a>

EDI 데이터 소스에서 데이터를 수집하려면 아래 절차를 따릅니다.

1.  AWS Supply Chain 대시보드의 왼쪽 탐색 창에서 **Data Lake**를 선택합니다.

1. **데이터 레이크** 페이지에서 **새 소스 추가**를 선택합니다.

   **공급망 데이터 소스 선택** 페이지가 나타납니다.

1. **EDI**를 선택합니다.

1. **EDI 연결 세부 정보** 페이지의 **연결 이름에** 연결 이름을 입력합니다.

1. (선택 사항) **연결 설명** 아래에 연결에 대한 설명을 입력합니다.

1. **Amazon S3 버킷 결제**에서 Amazon S3 결제 정보를 검토한 다음, **승인**을 선택합니다.

1. **Next**(다음)를 선택합니다.

1. **데이터 매핑**에서 **시작하기**를 선택합니다.

1. 
**참고**  
 AWS Supply Chain에서는 EDI 850, EDI 860, EDI 856이 지원됩니다.
**참고**  
필수 필드는 이미 매핑되어 있습니다. 기본 변환 레시피를 구체적으로 변경하려는 경우에만 이 단계를 수행하세요.

   **매핑 레시피** 페이지의 **필드 매핑**에서 기본 변환 레시피를 확인할 수 있습니다.

   대상 필드를 추가로 매핑하려면 **매핑 추가**를 선택합니다. **필수 대상 필드**는 필수입니다. 사용자 지정 대상 필드를 더 추가하려면 **대상 필드**를 선택합니다.
**참고**  
각 엔터티 그룹 아래의 모든 엔터티(예: EDI 850 엔터티 그룹에 대한 인바운드 주문, 인바운드 주문 라인, 인바운드 주문 라인 일정)를 검토하세요.

1. 변환 레시피의 소스 필드 값과 데이터 매핑을 확인하려면 샘플 데이터를 업로드하면 됩니다. **매핑 레시피** 페이지의 **샘플 데이터 업로드**에서 **파일 찾아보**기를 선택하거나 파일을 끌어서 놓습니다. 샘플 데이터 파일에는 필수 파라미터와 소스 필드 이름이 포함되어야 합니다.

1. **모두 수락하고 계속**을 선택합니다.

1. **검토 및 확인**에서 데이터 연결 요약을 볼 수 있습니다. 데이터 필드 매핑을 편집하려면 **데이터 매핑으로 돌아가기**를 선택합니다.

1. 수집 프로세스를 시작하려면 소스 데이터를 업로드해야 하는 Amazon S3 경로를 검토하려면 데이터 수집 **확인 및 구성을** 선택합니다.

1. **나중에 데이터를 수집하려면 나중에 데이터 수집 확인 및 구성을** 선택합니다. AWS Supply Chain 대시보드에서 연결을 생성한 후 언제든지 데이터를 수집할 수 있습니다.

1.  AWS Supply Chain 대시보드에서 **연결 열기를** 선택합니다. 데이터를 수집하려는 연결 데이터 흐름을 선택하고 세로 줄임표를 선택한 다음, **모으기 설정**을 선택합니다.

# S/4 HANA에 연결
<a name="connecting-sap-hana"></a>

S/4 HANA 데이터 소스에 연결하려면 먼저, 다음 사전 조건을 완료해야 합니다. 그런 다음는 Amazon S3 경로를 AWS Supply Chain 자동으로 생성하고 SAP 소스 테이블에서 데이터를 수집합니다.

## S/4 HANA에 연결하기 위한 사전 조건
<a name="prerequisites-s4hana"></a>

S/4 HANA 데이터 소스에 연결하려면 데이터를 수집하기 전에 다음 사전 조건을 완료해야 합니다.

1. Amazon AppFlow용 SAP OData 커넥터를 통해 ODP 기반 데이터 추출을 활성화하도록 SAP S/4 HANA 시스템을 구성합니다. 자세한 내용은 [SAP OData connector for Amazon AppFlow](https://docs.aws.amazon.com/appflow/latest/userguide/sapodata.html) 단원을 참조하세요.

1. SAP 데이터 소스 또는 추출기를 구성하고에 대한 ODP 기반 OData 서비스를 생성 AWS Supply Chain 하여 정보를 연결하고 추출합니다. 자세한 내용은 [SAP 데이터 소스](#s4-datasources) 단원을 참조하십시오.

1. 다음 인증 유형 중 하나로 SAP 시스템을 구성합니다.
   + 기본
   + OAuth

1. 데이터 추출을 활성화하도록 SAP 시스템에서 보안 역할을 구성합니다.

1. SAP S/4 HANA에 대한 네트워크 연결을 설정합니다. SAP 인스턴스가 보안 VPN에 있고 연결할 포트를 열 수 없는 경우 AWS Supply Chain 를 사용하는 것이 좋습니다 AWS PrivateLink. 수동으로 설정하려면 [AWS SAP용](https://aws.amazon.com/blogs/awsforsap/share-sap-odata-services-securely-through-aws-privatelink-and-the-amazon-appflow-sap-connector/) 섹션을 참조하고 AWS PrivateLink를 사용하여 자동으로 설정하려면 섹션을 CloudFormation참조하세요[CloudFormation](https://github.com/aws-cloudformation/aws-cloudformation-templates/tree/main/AWSSupplyChain/SapPrivateLink).

## S/4 HANA 연결 구성
<a name="connecting-s4hana"></a>

SAP S/4HANA 데이터 소스에서 데이터를 수집하려면 아래 절차를 따릅니다.

1.  AWS Supply Chain 대시보드의 왼쪽 탐색 창에서 **Data Lake**를 선택합니다.

1. **데이터 레이크** 페이지에서 **새 소스 추가**를 선택합니다.

   **공급망 데이터 소스 선택** 페이지가 나타납니다.

1. **SAP S/4HANA**를 선택합니다.

1. **Next**(다음)를 선택합니다.

1. **SAP S/4HANA 연결 세부 정보**에서 다음을 입력합니다.
   + **연결 이름** - 이 연결의 이름을 입력합니다.
   + (선택 사항) **연결 설명** – 이 연결의 이름을 입력합니다.
   + **기존 AppFlow 커넥터 사용** - 기존 AppFlow 커넥터를 사용하려면 **예를** 선택합니다.
   + **애플리케이션 호스트 URL** – SAP 계정의 URL을 입력합니다.
   + **애플리케이션 서비스 경로** – SAP 애플리케이션 서비스 경로를 입력합니다.
   + **포트 번호** – SAP 포트 번호를 입력합니다.
   + **클라이언트 번호** – SAP 클라이언트 번호를 입력합니다.
   + **로그온 언어** – SAP 언어 코드를 입력합니다. 예를 들어 영어의 경우 EN을 입력합니다.
   + **PrivateLink** - SAP 서버와 AWS 계정 호스팅 간에 프라이빗 연결을 활성화하려면 **활성화**됨을 선택합니다 AWS Supply Chain.
   + **사용자 이름** – SAP 계정의 사용자 이름을 입력합니다.
   + **암호** – SAP 계정의 암호를 입력합니다.
**참고**  
Amazon AppFlow는 제공된 SAP **사용자 이름**과 **암호**를 사용하여 SAP에 연결합니다.

1. **SAP에 연결**을 선택합니다.

   SAP 사용자 이름과 암호를 올바르게 입력하면 **연결 성공** 메시지가 나타납니다.

1. (선택 사항) **선택적 AppFlow 구성**, **1단계 - JSON 템플릿 파일 다운로드****에서 기존 JSON 템플릿 파일 다운로드**를 선택하여 appflow 수집 설정을 수정합니다.
**참고**  
자체 편집기를 사용하여 .json 파일을 편집할 수 있습니다. AWS Supply Chain에서는 .json 파일을 편집할 수 없습니다.

   .json 파일을 업데이트한 후 **2단계 - 수정된 JSON 템플릿 파일 업로드**에서 업로드할 **파일 찾아보**기를 선택합니다.
**참고**  
이 업로드가 실패한 경우 **업로드 요약**에 .json 파일의 오류 또는 충돌이 표시됩니다. .json 파일을 업데이트하여 문제를 해결하고 파일을 다시 업로드할 수 있습니다.

   다음은 필요한 일정, 데이터 흐름 및 소스 테이블이 포함된 샘플 .json 파일입니다.

   ```
   {
       "schedule" : { 
           "scheduleExpression"  : "rate(1days)", // scheduleExpression key should be available and the value cannot be null/empty. Format starts with rate and having time values in minutes, hours, or days. For example, rate(1days)
           "scheduleStartTime" : null // Supported format - "yyyy-MM-dd'T'hh:mm:ss[+|-]hh:mm". For example, 2022-04-26T13:00:00-07:00. ScheduleStartTime should atleast be 5 minutes after current time. A null value will automatically set the start time as 5 minutes after the connection creation time
       },
       "dataFlows" : [ // DataFlows cannot be null or empty. Make sure to choose from the list below
           "Company-Company",
           "Geography-Geography",
           "Inventory-Inventory Level",
           "Inventory-Inventory Policy",
           "Outbound-Outbound Order Line",
           "Outbound-Outbound Shipment",
           "Product-Product",
           "Product-Product Hierarchy",
           "Production Order-Inbound Order",
           "Production Order-Inbound Order Line",
           "Purchase Order-Inbound Order",
           "Purchase Order-Inbound Order Line",
           "Purchase Order-Inbound Order Line Schedule",
           "Reference-Reference Fields",
           "Shipment-Shipment",
           "Site-Site",
           "Site-Transportation Lane",
           "Trading Partner-Trading Partner",
           "Transfer Order-Inbound Order Line",
           "Vendor Management-Vendor Lead Time",
           "Vendor Management-Vendor Product",
           "Product-Product UOM"
       ],
       "sourceTables" : [   // sourceTables cannot be empty
           {
               "tableName" : "SomeString", // Should be an existing table name from the SAP instance
               "extractType" : "DELTA",      // Should either be DELTA or FULL 
               "tableCols" : [    // TableCols cannot be empty. Enter valid column names for the table
                   "col1",
                   "col2",
                   "col3"
               ],
               "filters" : [// Optional field
                       "colName" : "col1", // colName value should be part of tableCols
                       "dataType" : "String",  // Should contain values `STRING` or `DATETIME`
                       "value" : "String",
                       "operator" : "String"  // Choose a string value from the pre-defined value of "PROJECTION", "LESS_THAN", "CONTAINS","GREATER_THAN","LESS_THAN_OR_EQUAL_TO","GREATER_THAN_OR_EQUAL_TO","EQUAL_TO","NOT_EQUAL_TO","ADDITION","MULTIPLICATION","DIVISION","SUBTRACTION","MASK_ALL","MASK_FIRST_N","MASK_LAST_N","VALIDATE_NON_NULL","VALIDATE_NON_ZERO","VALIDATE_NON_NEGATIVE",or "VALIDATE_NUMERIC","NO_OP";
               ]
           },
           {
   
               // sourceTables with same keys - tableName, extractType, tableCols, filters(not mandatory)
           
           }
       ]
   }
   ```

1. **Amazon S3 버킷 결제**에서 Amazon S3 결제 정보를 검토한 다음, **승인**을 선택합니다.

1. **Next**(다음)를 선택합니다.

1. **데이터 매핑**에서 **시작하기**를 선택합니다.

1. 
**참고**  
필수 필드는 이미 매핑되어 있습니다. 기본 변환 레시피를 구체적으로 변경하려는 경우에만 이 단계를 수행하세요.

   **매핑 레시피** 페이지의 **필드 매핑**에서 기본 변환 레시피를 확인할 수 있습니다.

   대상 필드를 추가로 매핑하려면 **매핑 추가**를 선택합니다. **필수 대상 필드**는 필수입니다. 사용자 지정 대상 필드를 더 추가하려면 **대상 필드**를 선택합니다.

1. 변환 레시피의 소스 필드 값과 데이터 매핑을 확인하려면 샘플 데이터를 업로드하면 됩니다. **매핑 레시피** 페이지의 **샘플 데이터 업로드**에서 **파일 찾아보**기를 선택하거나 파일을 끌어서 놓습니다. 샘플 데이터 파일에는 필수 파라미터와 소스 필드 이름이 포함되어야 합니다.

1. **모두 수락하고 계속**을 선택합니다.

1. **검토 및 확인**에서 데이터 연결 요약을 볼 수 있습니다. 데이터 필드 매핑을 편집하려면 **데이터 매핑으로 돌아가기**를 선택합니다.

1.  (선택 사항) **레시피 작업**에서 다음을 수행할 수 있습니다.
   + **레시피 파일 다운로드** – SQL에서 레시피 파일을 텍스트 파일로 편집하려면 **다운로드**를 선택합니다.
**참고**  
기본 제공 SQL 함수에 관한 자세한 내용은 [Spark SQL](https://spark.apache.org/docs/latest/api/sql/index.html)을 참조하세요.
   + **레시피 파일 업로드** - **파일 찾아보기**를 선택하거나 편집한 레시피 텍스트 파일을 끌어서 놓습니다. 편집한 레시피 파일을 업로드하고 데이터 필드 매핑을 수정하려면 **업로드 확인**을 선택합니다.

1. 수집을 위해 SAP 소스 데이터를 업로드해야 하는 Amazon S3 위치 경로를 검토하려면 **데이터 모으기 확인 및 구성**을 선택합니다. 또는 **나중에 데이터 모으기 확인 및 구성**을 선택할 수도 있습니다. 언제든지 데이터 모으기 정보를 볼 수 있습니다. AWS Supply Chain 대시보드에서 **연결을** 선택합니다. 데이터를 수집하려는 연결 데이터 흐름을 선택하고 세로 줄임표를 선택한 다음, **모으기 설정**을 선택합니다.

## SAP 데이터 소스
<a name="s4-datasources"></a>

정보를 연결하고 추출 AWS Supply Chain 하도록에 대해 다음 SAP 테이블 소스를 구성합니다.

**참고**  
SAP 데이터 소스를 검색할 때 데이터 소스 이름 앞에 *EntityOf* 접두사를 추가합니다. 예를 들어 데이터 소스 0BP\$1DEF\$1ADDRESS\$1ATTR의 경우 엔터티 이름은 EntityOf0BP\$1DEF\$1ADDRESS\$1ATTR이어야 합니다.****  
Amazon AppFlow는 각 SAP 데이터 소스를 추출할 때 엔터티 이름 형식을 사용하여 정보를 추출합니다. 예를 들어 *0BP\$1DEF\$1ADDRESS\$1ATTR*에서 데이터를 추출할 경우 엔터티 경로 */sap/opu/odata/sap/Z0BP\$1DEF\$1ADDRESS\$1ATTR\$1SRV/EntityOf0BP\$1DEF\$1ADDRESS\$1ATT*에서 데이터를 추출합니다.


| SAP 데이터 소스 | SAP 데이터 소스 설명 | SAP 소스 테이블 | OData 서비스 이름 | BW 데이터 소스 | SAP 데이터 | 델타/전체 | 
| --- | --- | --- | --- | --- | --- | --- | 
|  0BP\$1DEF\$1​ADDRESS\$1ATTR  |  BP 표준 주소 추출  |  NA  |  Z0BP\$1DEF\$1​ADDRESS\$1ATTR​\$1SRV  |  데이터 소스  |  마스터 데이터  |  델타  | 
|  0BPARTNER\$1​ATTR  |  BP: BW 추출 ​중앙 데이터  |  NA  |  Z0BPARTNER\$1​ATTR\$1SRV  |  데이터 소스  |  마스터 데이터  |  델타  | 
|  0BPARTNER\$1​TEXT  |  BP: 비즈니스 파트너 텍스트용 데이터 소스  |  NA  |  Z0BPARTNER\$1​TEXT\$1SRV  |  데이터 소스  |  마스터 데이터  |  델타  | 
|  0CO\$1PC\$1ACT​\$105  |  자재 평가:​ 가격  |  NA  |  Z0CO\$1PC\$1​ACT\$105\$1SRV  |  데이터 소스  |  마스터 데이터  |  전체  | 
|  0COMP\$1CODE​\$1TEXT  |  회사 코드 텍스트  |  NA  |  Z0COMP\$1CODE​\$1TEXT\$1SRV  |  데이터 소스  |  마스터 데이터  |  전체  | 
|  0CUSTOMER\$1​ATTR  |  Customer  |  NA  |  Z0CUSTOMER\$1​ATTR\$1SRV  |  데이터 소스  |  마스터 데이터  |  델타  | 
|  0MAT\$1VEND\$1​ATTR  |  자재 또는 공급업체  |  NA  |  Z0MAT\$1VEND\$1​ATTR\$1SRV  |  데이터 소스  |  마스터 데이터  |  델타  | 
|  0MATERIAL\$1​ATTR  |  Material  |  NA  |  Z0MATERIAL\$1​ATTR\$1SRV  |  데이터 소스  |  마스터 데이터  |  델타  | 
|  0MATERIAL\$1​TEXT  |  자재 텍스트  |  NA  |  Z0MATERIAL\$1​TEXT\$1SRV  |  데이터 소스  |  마스터 데이터  |  델타  | 
|  0PURCH\$1ORG\$1​TEXT  |  구매 조직 텍스트  |  NA  |  Z0PURCH\$1ORG\$1​TEXT\$1SRV  |  데이터 소스  |  마스터 데이터  |  전체  | 
|  0VENDOR\$1​ATTR  |  Vendor  |  NA  |  Z0VENDOR\$1​ATTR\$1SRV  |  데이터 소스  |  마스터 데이터  |  델타  | 
|  2LIS\$102\$1HDR  |  구매 데이터(헤더 레벨)  |  NA  |  Z2LIS\$102\$1​HDR\$1SRV  |  데이터 소스  |  트랜잭션  |  델타  | 
|  2LIS\$102\$1ITM  |  구매 데이터(항목 레벨)  |  NA  |  Z2LIS\$102\$1​ITM\$1SRV  |  데이터 소스  |  트랜잭션  |  델타  | 
|  2LIS\$102\$1SCL  |  구매 데이터(일정 라인 레벨)  |  NA  |  Z2LIS\$102\$1​SCL\$1SRV  |  데이터 소스  |  트랜잭션  |  델타  | 
|  2LIS\$102\$1SCN  |  일정 라인 확인  |  NA  |  Z2LIS\$102\$1​SCN\$1SRV  |  데이터 소스  |  트랜잭션  |  델타  | 
|  2LIS\$103\$1BF  |  재고 관리의 상품 이동  |  NA  |  Z2LIS\$103\$1​BF\$1SRV  |  데이터 소스  |  트랜잭션  |  델타  | 
|  2LIS\$104\$1P​\$1MATNR  |  PP/PP-PI의 자재 보기  |  NA  |  Z2LIS\$104\$1P\$1​MATNR\$1SRV  |  데이터 소스  |  트랜잭션  |  델타  | 
|  2LIS\$108TRFKP  |  항목 레벨의 발송 비용  |  NA  |  Z2LIS\$108TRFKP​\$1SRV  |  데이터 소스  |  트랜잭션  |  델타  | 
|  2LIS\$108TRTLP  |  발송: 섹션별 배송 항목 데이터  |  NA  |  Z2LIS\$108TRTLP​\$1SRV  |  데이터 소스  |  트랜잭션  |  델타  | 
|  2LIS\$108TRTK  |  발송: 헤더 데이터  |  NA  |  Z2LIS\$108TRTK​\$1SRV  |  데이터 소스  |  트랜잭션  |  델타  | 
|  2LIS\$111​\$1VAHDR  |  판매 문서 헤더  |  NA  |  Z2LIS\$111​\$1VAHDR\$1SRV  |  데이터 소스  |  트랜잭션  |  델타  | 
|  2LIS\$111​\$1VAITM  |  판매 문서 항목  |  NA  |  Z2LIS\$111\$1​VAITM\$1SRV  |  데이터 소스  |  트랜잭션  |  델타  | 
|  2LIS\$112\$1VCITM  |  배송 항목 데이터  |  NA  |  Z2LIS\$112​\$1VCITM\$1SRV  |  데이터 소스  |  트랜잭션  |  델타  | 
|  ZADRC  |  주소  |  ADRC  |  ZADRC\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZBUT021\$1FS  |  파트너 주소  |  BUT021\$1FS  |  ZBUT021\$1FS​\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZCDHDR  |  문서 헤더 변경  |  CDHDR  |  ZCDHDR\$1SRV  |  표  |  마스터 데이터  |  델타  | 
|  ZEINA  |  구매 정보 레코드: 일반 데이터  |  EINA  |  ZEINA\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZEINE  |  구매 정보 레코드: 구매 조직 데이터  |  ZV\$1EINE  |  ZEINE\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZEKKO  |  구매 문서 헤더  |  ZV\$1EKKO  |  ZEKKO\$1SRV  |  표  |  트랜잭션  |  델타  | 
|  ZEKPO  |  구매 문서 항목  |  ZV\$1EKPO  |  ZEKPO\$1SRV  |  표  |  트랜잭션  |  델타  | 
|  ZEQUI  |  장비 마스터 데이터  |  EQUI  |  ZEQUI\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZGEOLOC  |  지리적 위치  |  GEOLOC  |  ZGEOLOC\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZLIKP  |  배송 헤더 데이터  |  LIKP  |  ZLIKP\$1SRV  |  표  |  트랜잭션  |  델타  | 
|  ZLIPS  |  배송: 항목 데이터  |  ZV\$1LIPS  |  ZLIPS\$1SRV  |  표  |  트랜잭션  |  델타  | 
|  ZMDRP\$1​NODTT  |  DRP 네트워크의 노드 유형  |  MDRP\$1NODTT  |  ZMDRP\$1NODTT​\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZMARC  |  자재의 플랜트 데이터  |  ZQ\$1MARC  |  ZMARC\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZMARD  |  자재의 보관 위치 데이터  |  ZQ\$1MARD  |  ZMARD\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZMCHB  |  배치 재고  |  ZQ\$1MCHB  |  ZMCHB\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZT001W  |  플랜트  |  T001W  |  ZT001W\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZT005T  |  국가 이름  |  T005T  |  ZT005T\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZT141T  |  자재 상태 설명  |  T141T  |  ZT141T\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZT173T  |  운송 배송 유형 텍스트  |  T173T  |  ZT173T\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZT179  |  자재: 제품 계층 구조  |  T179  |  ZT179\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZT179T  |  자재: 제품 계층 구조 텍스트  |  T179T  |  ZT179T\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZT370U  |  장비 범주 텍스트  |  T370U  |  ZT370U\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZT618T  |  운송 방식 설명  |  T618T  |  ZT618T\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZTVRAB  |  경로 단계  |  TVRAB  |  ZTVRAB\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZTVRO  |  경로  |  TVRO  |  ZTVRO\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZVALW  |  경로 일정  |  VALW  |  ZVALW\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZVBBE  |  판매 요건: 개별 레코드  |  VBBE  |  ZVBBE\$1SRVs  |  표  |  마스터 데이터  |  전체  | 
|  ZINB\$1​SHIPMENT  |  발송 헤더 및 항목(인바운드)  |  조인 조건에 따른 ZV\$1INB\$1​SHIPMENT: VTTK.MANDT = VTTP.MANDT​ 및 VTTK.TKNUM = VTTP.TKNUM  |  ZINB\$1SHIPMENT​\$1SRV  |  표  |  트랜잭션  |  전체  | 
|  ZAUFK  |  주문 마스터 데이터  |  AUFK  |  ZAUFK\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZMARM  |  재료 측정 단위  |  MARM  |  ZMARM\$1SRV  |  표  |  마스터 데이터  |  전체  | 
|  ZEBAN  |  구매 요청  |  EBAN  |  ZEBAN\$1SRV  |  표  |  트랜잭션 데이터  |  델타  | 

# SAP ECC 6.0에 연결
<a name="connecting-sap-ecc"></a>

SAP ECC 6.0에서 데이터를 추출하려면 아래 절차를 따르세요.

1.  AWS Supply Chain 대시보드의 왼쪽 탐색 창에서 **Data Lake**를 선택합니다.

1. **데이터 레이크** 페이지에서 **새 소스 추가**를 선택합니다.

   **공급망 데이터 소스 선택** 페이지가 나타납니다.

1. **SAP ECC**를 선택합니다.

1. **SAP ECC 연결 세부 정보**에서 다음을 입력합니다.
   + **연결 이름** - 연결의 이름을 입력합니다. 연결 이름에는 문자, 숫자, 대시만 포함할 수 있습니다.
   + **연결 설명** - 연결에 대한 설명을 입력합니다.

1. **Amazon S3 버킷 결제**에서 Amazon S3 결제 정보를 검토한 다음, **승인**을 선택합니다.

1. **Next**(다음)를 선택합니다.

1. **데이터 매핑**에서 **시작하기**를 선택합니다.

1. 
**참고**  
필수 필드는 이미 매핑되어 있습니다. 기본 변환 레시피를 구체적으로 변경하려는 경우에만 이 단계를 수행하세요.

   **매핑 레시피** 페이지의 **필드 매핑**에서 기본 변환 레시피를 확인할 수 있습니다.

   대상 필드를 추가로 매핑하려면 **매핑 추가**를 선택합니다. **필수 대상 필드**는 필수입니다. 사용자 지정 대상 필드를 더 추가하려면 **대상 필드**를 선택합니다.

1. 
**참고**  
트랜잭션 엔터티의 레시피를 편집 AWS Glue DataBrew 하는 데만를 사용할 수 있습니다. AWS Supply Chain 를 사용하여 레시피를 다운로드하고 DataBrew에서 편집합니다. 그런 다음 레시피를 다시에 업로드합니다 AWS Supply Chain. AWS Supply Chain 웹 애플리케이션을 사용하여 레시피의 트랜잭션 데이터 필드를 편집할 수 없습니다.

    (선택 사항) **레시피 작업**에서 다음을 수행할 수 있습니다.
   + **레시피 파일 다운로드** – DataBrew를 사용하여 오프라인에서 레시피 파일을 편집하려면 **다운로드**를 선택합니다.
   + **레시피 파일 업로드** - **파일 찾아보기**를 선택하거나 편집한 레시피 파일을 이동(끌어서 놓기)합니다. 편집한 레시피 파일을 업로드하고 데이터 필드 매핑을 수정하려면 **업로드 확인**을 선택합니다.
   + **기본 레시피로 재설정** – 모든 사용자 지정 매핑을 제거하고 AWS Supply Chain에서 권장하는 기본 레시피로 되돌리려면 **예, 레시피 재설정**을 선택합니다.

1. 소스 필드 매핑을 편집하고 변환 레시피를 검증하려면 샘플 데이터를 업로드하면 됩니다. **매핑 레시피** 페이지의 **샘플 데이터 업로드**에서 **파일 찾아보기**를 선택하거나 파일을 이동(끌어서 놓기)합니다. 샘플 데이터 파일에는 필수 파라미터와 소스 필드 이름이 포함되어야 합니다.

1. **모두 수락하고 계속**을 선택합니다.

1. **검토 및 확인**에서 데이터 연결 요약을 볼 수 있습니다. 데이터 필드 매핑을 편집하려면 **데이터 매핑으로 돌아가기**를 선택합니다.

1. 수집을 위해 SAP 소스 데이터를 업로드해야 하는 Amazon S3 경로를 검토하려면 **데이터 모으기 확인 및 구성**을 선택합니다. 또는 **나중에 데이터 모으기 확인 및 구성**을 선택할 수도 있습니다. 언제든지 데이터 모으기 정보를 볼 수 있습니다. AWS Supply Chain 대시보드에서 **연결을** 선택합니다. 데이터를 수집하려는 연결 데이터 흐름을 선택하고 세로 줄임표를 선택한 다음, **모으기 설정**을 선택합니다.

1. Amazon S3 API를 사용하여 데이터를 수집하지 않는 경우 Amazon S3 콘솔에서 Amazon S3 경로를 수동으로 생성합니다. 경로를 생성하는 방법에 대한 자세한 내용은 섹션을 참조하세요[Amazon S3 버킷에 데이터 업로드](manually-uploading-data.md).

1. 다음 표를 검토하여 SAP 소스로 AWS Supply Chain 데이터 엔터티를 매핑합니다.
**중요**  
**Amazon S3 경로** 페이지에서 하위 엔터티보다 먼저 상위 엔터티를 업로드해야 합니다. 먼저 모든 상위 엔터티를 업로드한 다음, 모든 하위 엔터티를 함께 업로드할 수 있습니다.

[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/aws-supply-chain/latest/userguide/connecting-sap-ecc.html)

# 공급 계획을 위한 새 아웃바운드 소스 추가
<a name="adding_new_outbound_connector"></a>

새 아웃바운드 소스를 사용하여 업데이트된 *Supply Planning* 구매 주문 요청 또는 계획 개선 사항을 업로드할 수 있습니다.

1.  AWS Supply Chain 대시보드의 왼쪽 탐색 창에서 **Data Lake**를 선택한 다음 **Data Ingestion** 탭을 선택합니다.

   **데이터 수집** 페이지가 나타납니다.

1. **아웃바운드 소스 추가**를 선택합니다.

   **Amazon S3 연결 세부 정보** 페이지가 나타납니다.

1. **연결 이름**에 Amazon S3 연결의 이름을 입력합니다.

1. **아웃바운드 데이터**에서 내보낼 아웃바운드 데이터 흐름을 선택합니다. 구매 주문 요청 및 공급 예측 데이터 흐름이 지원됩니다.

1. **확인**을 선택합니다.

   새 아웃바운드 소스가 생성되고 **연결 페이지가** 나타납니다.

# 기존 연결에 대한 데이터 수집
<a name="ingesting-data"></a>

Amazon S3를 사용하는 경우 수집 옵션은 다음과 같습니다.
+ **추가** - 수집 데이터를 추가하거나 증분 수집을 위해 소스 경로의 모든 파일이 데이터 레이크로 수집되기 전에 단일 데이터 세트로 결합됩니다. 이 방법은 며칠에 걸친 파일에 대한 데이터의 완전성을 보장합니다. S3 버킷의 소스 경로에서 파일을 제거하면 소스 경로에서만 사용할 수 있는 파일이 데이터 레이크에 수집됩니다.

   *추가* 옵션을 사용하면 Amazon S3의 파일이 데이터 레이크에서 복제 및 동기화됩니다.
+ **덮어쓰기** - 바꾸는 동안 데이터 파일은 소스 경로에서 업데이트될 때 데이터 레이크로 수집됩니다. 각 새 파일은 데이터 세트를 완전히 대체합니다.
**참고**  
*추가* 및 *덮어쓰기* 옵션 모두에서 소스 흐름과 해당 데이터를 삭제할 수 있습니다.

다음은 *EDI*, *SAP S/4 HANA* 및 *SAP ECC*에 대한 수집 작업 옵션입니다.
+ **업데이트** - 레시피에 사용된 것과 동일한 필드를 사용하여 기존 데이터 행을 업데이트합니다.
+ **바꾸**기 - 업로드된 기존 데이터를 삭제하고 새 수신 데이터로 바꿉니다.
+ **삭제** - 기본 IDs.

**데이터 수집을 시작하려면 아래 절차를 따릅니다.**

1.  AWS Supply Chain 대시보드의 왼쪽 탐색 창에서 **Data Lake**를 선택합니다.

1. **데이터 수집** 탭에서 **연결을** 선택합니다.

1. 데이터를 수집할 연결을 선택하고 **데이터 수집**을 선택합니다.

   **데이터 수집 구성** 페이지가 나타납니다.

1. **Get started**를 선택합니다.

1. **데이터 수집 세부 정보** 페이지에서 데이터를 *업데이트*, *교체* 또는 *삭제할*지 선택합니다. 복사를 선택하여 Amazon S3 경로를 **복사**합니다.

# Amazon S3 버킷에 데이터 업로드
<a name="manually-uploading-data"></a>

**참고**  
SAP ERP Component Central(ECC) 커넥터 및 EDI 커넥터에 대해이 절차를 수행하여 인스턴스와 AWS Supply Chain 연결된 S3 버킷의 데이터를 수동으로 수집합니다. Amazon S3 API를 사용하여 데이터를 업로드하는 경우 [SAP ECC 6.0에 연결](connecting-sap-ecc.md)또는 섹션을 참조하세요[EDI에 연결](connecting-edi.md).

 AWS Supply Chain 인스턴스와 연결된 Amazon S3 버킷에 데이터를 업로드하려면 다음 절차를 따릅니다.

1.  AWS Supply Chain 대시보드의 왼쪽 탐색 모음에서 **연결 열기를** 선택합니다.

1. 필요한 연결을 선택합니다.

1. **연결 세부 정보** 페이지에서 **복사**를 선택하여 Amazon S3 경로를 복사하거나 Amazon S3 경로를 기록해 둡니다.

1. [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/) Amazon S3 콘솔을 열고 로그인합니다.

1. **버킷**에서 폴더 또는 파일을 업로드할 버킷의 이름(Amazon S3 경로의 이름)을 선택합니다.

1.  AWS Supply Chain 대시보드에서 복사한 Amazon S3 경로로 이동합니다.

1. **업로드**를 선택합니다.  
![\[Amazon S3 버킷에 데이터 업로드\]](http://docs.aws.amazon.com/ko_kr/aws-supply-chain/latest/userguide/images/S3_console.png)