

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# FSx for ONTAP 데이터 액세스
<a name="supported-fsx-clients"></a>

 AWS 클라우드 및 온프레미스 환경 모두에서 지원되는 다양한 클라이언트 및 메서드를 사용하여 Amazon FSx 파일 시스템에 액세스할 수 있습니다.

각 SVM에는 NetApp ONTAP CLI 또는 REST API를 사용하여 데이터에 액세스하거나 SVM을 관리하는 데 사용되는 엔드포인트가 4개 있습니다.
+ `Nfs` – Network File System(NFS) 프로토콜을 사용하여 연결하는 경우
+ `Smb` – Service Message Block(SMB) 프로토콜을 사용하여 연결하는 경우(SVM이 Active Directory에 조인되어 있거나 워크그룹을 사용하는 경우)
+ `Iscsi` - 공유 블록 스토리지 지원을 위해 인터넷 소형 컴퓨터 시스템 인터페이스(iSCSI) 프로토콜을 사용하여 연결하는 경우.
+ `Nvme` - 공유 블록 스토리지 지원을 위해 TCP/IP를 통해 비휘발성 메모리 익스프레스(NVMe)를 사용하여 연결하는 데 사용됩니다.
+ `Management` – NetApp ONTAP CLI 또는 API 또는 NetApp 콘솔을 사용하여 SVM을 관리하는 경우

**참고**  
iSCSI 프로토콜은 [고가용성 페어(HA) 페어](HA-pairs.md)가 6개 이하인 모든 파일 시스템에서 사용할 수 있습니다. NVMe/TCP 프로토콜은 HA 페어가 6개 이하인 2세대 파일 시스템에서 사용할 수 있습니다.

**Topics**
+ [지원되는 클라이언트](#supported-clients-fsx)
+ [블록 스토리지 프로토콜 사용](#using-block-storage)
+ [내에서 데이터 액세스 AWS 클라우드](#access-environments)
+ [온프레미스에서 데이터 액세스](#accessing-data-from-on-premises)
+ [VPC 외부에서 다중 AZ 파일 시스템에 액세스하도록 라우팅 구성](configuring-routing-using-AWSTG.md)
+ [온프레미스에서 다중 AZ 파일 시스템에 액세스하도록 라우팅 구성](configure-routing-maz-on-prem.md)
+ [Linux 클라이언트에 볼륨 탑재](attach-linux-client.md)
+ [Microsoft Windows 클라이언트에 볼륨 탑재](attach-windows-client.md)
+ [MacOS 클라이언트에서 볼륨 탑재](attach-mac-client.md)
+ [Linux용 iSCSI 프로비저닝](mount-iscsi-luns-linux.md)
+ [Windows용 iSCSI 프로비저닝](mount-iscsi-windows.md)
+ [Linux용 NVMe /TCP 프로비저닝](provision-nvme-linux.md)
+ [Amazon S3 액세스 포인트를 통해 데이터 액세스](accessing-data-via-s3-access-points.md)
+ [다른 AWS 서비스의 데이터에 액세스](using-fsx-with-other-AWS-services.md)

## 지원되는 클라이언트
<a name="supported-clients-fsx"></a>

FSx for ONTAP 파일 시스템은 다양한 컴퓨팅 인스턴스 및 운영 체제에서 데이터에 연결할 수 있도록 지원합니다. 이는 Network File System(NFS) 프로토콜(v3, v4.0, v4.1 및 v4.2), 모든 버전의 Server Message Block(SMB) 프로토콜(2.0, 3.0 및 3.1.1 포함) 및 Internet Small Computer Systems Interface(iSCSI) 프로토콜을 사용한 액세스를 지원함으로써 이루어집니다.

**중요**  
Amazon FSx는 퍼블릭 인터넷에서 파일 시스템에 액세스하는 것을 지원하지 않습니다. Amazon FSx는 인터넷에서 연결할 수 있는 퍼블릭 IP 주소인 탄력적 IP 주소를 자동으로 분리합니다. 이 주소는 파일 시스템의 탄력적 네트워크 인터페이스에 연결됩니다.

FSx for ONTAP에서 사용할 수 있는 AWS 컴퓨팅 인스턴스는 다음과 같습니다.
+ NFS 또는 SMB를 지원하는 Linux, Microsoft Windows 및 MacOS를 실행하는 Amazon Elastic Compute Cloud(Amazon EC2) 인스턴스 자세한 내용은 [Linux 클라이언트에 볼륨 탑재](attach-linux-client.md) [Microsoft Windows 클라이언트에 볼륨 탑재](attach-windows-client.md) 및 [MacOS 클라이언트에서 볼륨 탑재](attach-mac-client.md)을 참조하세요.
+ Amazon EC2 Windows 및 Linux 인스턴스의 Amazon Elastic Container Service(Amazon ECS) 도커 컨테이너 자세한 내용은 [FSx for ONTAP과 함께 Amazon Elastic Container Service 사용](mount-ontap-ecs-containers.md) 섹션을 참조하세요.
+ Amazon Elastic Kubernetes Service – 자세히 알아보려면 *Amazon EKS 사용 설명서*의 [Amazon FSx for NetApp ONTAP CSI 드라이버](https://docs.aws.amazon.com/eks/latest/userguide/fsx-ontap.html)를 참조하세요.
+ Red Hat OpenShift Service on AWS (ROSA) – 자세한 내용은 [Red Hat OpenShift Service on 사용 설명서의 Red Hat OpenShift Service on이란 무엇입니까 AWS?](https://docs.aws.amazon.com/ROSA/latest/userguide/what-is-rosa.html)를 참조하세요. OpenShift AWS 
+ Amazon WorkSpaces 인스턴스. 자세한 내용은 [FSx for ONTAP과 함께 Amazon WorkSpaces 사용](using-workspaces.md) 섹션을 참조하세요.
+ Amazon AppStream 2.0 인스턴스.
+ AWS Lambda - 자세한 내용은 AWS 블로그 게시물 [Amazon FSx를 사용하여 서버리스 워크로드에 대한 SMB 액세스 활성화를](https://aws.amazon.com/blogs/storage/enabling-smb-access-for-serverless-workloads/) 참조하세요.
+  AWS 환경의 VMware Cloud에서 실행되는 가상 머신(VMs)입니다. 자세한 내용은 Configure [ Amazon FSx for NetApp ONTAP as External Storage](https://docs.vmware.com/en/VMware-Cloud-on-AWS/services/com.vmware.vmc-aws-operations/GUID-D55294A3-7C40-4AD8-80AA-B33A25769CCA.html?hWord=N4IghgNiBcIGYGcAeIC+Q) and [VMware Cloud AWS with Amazon FSx for NetApp ONTAP Deployment Guide](https://vmc.techzone.vmware.com/fsx-guide#overview)를 참조하세요.

마운트된 후에는 NFS 및 SMB를 통해 FSx for ONTAP 파일 시스템이 로컬 디렉터리 또는 드라이브 문자로 나타나며, 최대 수천 개의 클라이언트가 동시에 액세스할 수 있는 완전관리형 공유 네트워크 파일 스토리지를 제공합니다. iSCSI LUN은 iSCSI를 통해 마운트되는 경우 블록 디바이스로 액세스할 수 있습니다.

## 블록 스토리지 프로토콜 사용
<a name="using-block-storage"></a>

Amazon FSx for NetApp ONTAP는 TCP(NVMe/TCP) 블록 스토리지 프로토콜을 통한 iSCSI(인터넷 소형 컴퓨터 시스템 인터페이스) 및 NVMe(비휘발성 메모리 익스프레스)를 지원합니다. 스토리지 영역 네트워크(SAN) 환경에서 스토리지 시스템은 스토리지 대상 디바이스가 있는 대상입니다. iSCSI의 경우 스토리지 대상 디바이스를 논리적 단위(LUNs. NVMe/TCP의 경우 스토리지 대상 디바이스를 네임스페이스라고 합니다.

SVM의 iSCSI 논리적 인터페이스(LIF)를 사용하여 NVMe 및 iSCSI 블록 스토리지 모두에 연결합니다.

iSCSI용 LUNs 생성하고 NVMe용 네임스페이스를 생성하여 스토리지를 구성합니다. 그런 다음 호스트는 iSCSI 또는 TCP 프로토콜을 사용하여 LUNs 및 네임스페이스에 액세스합니다.

iSCSI 및 NVMe/TCP 블록 스토리지 구성에 대한 자세한 내용은 다음을 참조하세요.
+ [Linux용 iSCSI 프로비저닝](mount-iscsi-luns-linux.md)
+ [Windows용 iSCSI 프로비저닝](mount-iscsi-windows.md)
+ [Linux용 NVMe /TCP 프로비저닝](provision-nvme-linux.md)

## 내에서 데이터 액세스 AWS 클라우드
<a name="access-environments"></a>

각 Amazon FSx 파일 시스템은 Virtual Private Cloud(VPC)와 연결되어 있습니다. 가용 영역과 관계없이 파일 시스템 VPC의 어느 곳에서나 FSx for ONTAP 파일 시스템에 액세스할 수 있습니다. 다른 AWS 계정 또는에 있을 수 있는 다른 VPCs에서 파일 시스템에 액세스할 수도 있습니다 AWS 리전. FSx for ONTAP 리소스에 액세스하기 위해서는 다음 섹션에 설명되어 있는 요구 사항 외에도 파일 시스템과 클라이언트 간에 데이터 및 관리 트래픽이 흐를 수 있도록 파일 시스템의 VPC 보안 그룹을 구성해야 합니다. 필수 포트로 보안 그룹을 구성하는 방법에 대한 자세한 내용은 [Amazon VPC 보안 그룹](limit-access-security-groups.md#fsx-vpc-security-groups) 섹션을 참조하세요.

### 동일 VPC 내에서 데이터 액세스
<a name="same-vpc-access"></a>

Amazon FSx for NetApp ONTAP 파일 시스템을 생성할 때는 해당 파일 시스템이 위치한 Amazon VPC를 선택합니다. Amazon FSx for NetApp ONTAP 파일 시스템과 관련된 모든 SVM 및 볼륨도 동일한 VPC에 있습니다. 볼륨을 탑재할 때 파일 시스템과 볼륨을 탑재하는 클라이언트가 동일한 VPC에 있고 클라이언트에 따라 SVM의 DNS 이름 및 볼륨 정션 또는 SMB 공유를 사용할 AWS 계정수 있습니다.

클라이언트와 볼륨이 파일 시스템의 서브넷과 동일한 가용 영역 또는 다중 AZ 파일 시스템의 기본 서브넷에 있는 경우 최적의 성능을 얻을 수 있습니다. 파일 시스템의 서브넷 또는 Amazon FSx 콘솔의 기본 서브넷을 식별하려면 **파일 시스템**을 선택한 다음 마운트하려는 볼륨이 있는 ONTAP 파일 시스템을 선택합니다. 그러면 **서브넷** 또는 **기본 서브넷** 패널에 서브넷 또는 기본 서브넷(다중 AZ)가 표시됩니다.

### 배포 VPC 외부에서 데이터 액세스
<a name="access-from-outside-deployment-vpc"></a>

이 섹션에서는 파일 시스템의 배포 VPC 외부 AWS 위치에서 FSx for ONTAP 파일 시스템의 엔드포인트에 액세스하는 방법을 설명합니다.

#### 다중 AZ 파일 시스템의 NFS, SMB 및 ONTAP 관리 엔드포인트에 액세스
<a name="access-maz-with-direct-connect"></a>

Amazon FSx for NetApp ONTAP 다중 AZ 파일 시스템의 NFS, SMB 및 ONTAP 관리 엔드포인트는 유동 인터넷 프로토콜(IP) 주소를 사용하므로 연결된 클라이언트가 장애 조치 이벤트 중에 기본 파일 서버와 대기 파일 서버 간에 원활하게 전환할 수 있습니다. 장애 조치에 대한 자세한 내용은 [FSx for ONTAP의 장애 조치 프로세스](high-availability-AZ.md#Failover) 섹션을 참조하세요.

이러한 유동 IP 주소는 파일 시스템에 연결하는 VPC 라우팅 테이블에서 생성되며, 생성 중에 지정할 수 있는 파일 시스템의 `EndpointIPv4AddressRange` 또는 `EndpointIPv6AddressRange` 내에 있습니다. 엔드포인트 IP 주소는 파일 시스템 생성 방법에 따라 다음 주소 범위를 사용합니다.
+ Amazon FSx 콘솔이나 Amazon FSx API로 생성된 다중 AZ 듀얼 스택 파일 시스템은 기본적으로 VPC의 CIDR 범위 중 하나에서 Amazon FSx가 선택한 사용 가능한 /118 IP 주소 범위를 사용합니다. 동일한 VPC/라우팅 테이블에 배포된 파일 시스템의 엔드포인트 IP 주소는 어떤 서브넷과도 겹치지 않는 경우에는 중복될 수 있습니다.
+ 기본적으로 Amazon FSx 콘솔을 사용하여 생성된 다중 AZ IPv4 전용 파일 시스템은 파일 시스템의 엔드포인트 IP 주소 범위에 VPC 기본 CIDR 범위의 마지막 64개 IP 주소를 사용합니다.

   AWS CLI 또는 Amazon FSx API를 사용하여 생성된 다중 AZ IPv4-only 파일 시스템은 기본적으로 엔드포인트 IP 주소 범위에 대한 `198.19.0.0/16` 주소 블록 내의 IP 주소 범위를 사용합니다.
+ 네트워크 유형에 관계 없이 **표준 생성** 옵션에서 고유한 IP 주소 범위를 지정할 수도 있습니다. 선택한 IP 주소 범위는 서브넷과 겹치지 않고 동일한 VPC 및 라우트 테이블을 가진 다른 파일 시스템에서 이미 사용하고 있지 않다면 VPC의 IP 주소 범위 내부 또는 외부에 위치할 수 있습니다. 이 옵션의 경우 VPC의 IP 주소 범위 내에 있는 범위를 사용하는 것이 좋습니다.

[AWS Transit Gateway](https://aws.amazon.com/transit-gateway/?whats-new-cards.sort-by=item.additionalFields.postDateTime&whats-new-cards.sort-order=desc)는 유동 IP 주소로의 라우팅만 지원하며, 이를 전이적 피어링이라고도 합니다. VPC 피어링 Direct Connect, 및 Site-to-Site VPN 는 전이적 피어링을 지원하지 않습니다. 따라서 파일 시스템의 VPC 외부에 있는 네트워크에서 이러한 인터페이스에 액세스하려면 Transit Gateway를 사용해야 합니다.

다음 다이어그램은 액세스하는 클라이언트와 다른 VPC에 있는 다중 AZ 파일 시스템에 대한 NFS, SMB 또는 관리 액세스를 위해 Transit Gateway를 사용하는 방법을 보여줍니다.

![\[\]](http://docs.aws.amazon.com/ko_kr/fsx/latest/ONTAPGuide/images/fsx-ontap-multi-az-access-transit-gateway.png)


**참고**  
사용 중인 모든 라우팅 테이블이 다중 AZ 파일 시스템에 연결되어 있는지 확인합니다. 이렇게 하면 장애 조치 중에 사용할 수 없게 되는 사태를 방지하는 데 도움이 됩니다. Amazon VPC 라우팅 테이블을 파일 시스템과 연결하는 방법에 대한 자세한 내용은 [파일 시스템 업데이트](updating-file-system.md) 섹션을 참조하세요.

Transit Gateway를 사용하여 FSx for ONTAP 파일 시스템에 액세스해야 하는 경우에 대한 자세한 내용은 [Transit Gateway가 필요한 경우](#when-is-transit-gateway-required) 섹션을 참조하세요.

Amazon FSx는 태그 기반 인증을 사용하여 다중 AZ 파일 시스템의 VPC 라우팅 테이블을 관리합니다. 이러한 라우팅 테이블은 `Key: AmazonFSx; Value: ManagedByAmazonFSx`로 태그가 지정됩니다. 를 사용하여 FSx for ONTAP 다중 AZ 파일 시스템을 생성하거나 업데이트할 때는 `Key: AmazonFSx; Value: ManagedByAmazonFSx` 태그를 수동으로 추가하는 것이 CloudFormation 좋습니다.

#### 단일 AZ 파일 시스템의 NFS, SMB 또는 ONTAP CLI 및 API 액세스
<a name="access-saz"></a>

NFS 또는 SMB를 통해 FSx for ONTAP 단일 AZ 파일 시스템에 액세스하고 ONTAP CLI 또는 REST API를 사용하여 파일 시스템을 관리하는 데 사용되는 엔드포인트는 활성 파일 서버의 ENI 상의 보조 IP 주소입니다. 보조 IP 주소는 VPC의 CIDR 범위 내에 있으므로 클라이언트는 VPC 피어링 AWS Direct Connect을 사용하거나 필요 Site-to-Site VPN 없이 데이터 및 관리 포트에 액세스할 수 있습니다 AWS Transit Gateway.

다음 다이어그램은 NFS, SMB 또는 해당 파일에 액세스하는 클라이언트와 다른 VPC에 있는 단일 AZ 파일 시스템에 Direct Connect 대한 관리 액세스에 Site-to-Site VPN 또는를 사용하는 방법을 보여줍니다.

![\[\]](http://docs.aws.amazon.com/ko_kr/fsx/latest/ONTAPGuide/images/fsx-ontap-single-az-access-vpc-peering.png)


#### Transit Gateway가 필요한 경우
<a name="when-is-transit-gateway-required"></a>

다중 AZ 파일 시스템에 Transit Gateway가 필요한지 여부는 파일 시스템 데이터에 액세스하는 데 사용하는 방법에 따라 다릅니다. 단일 AZ 파일 시스템에는 Transit Gateway가 필요하지 않습니다. 다음 표에서는 다중 AZ 파일 시스템에 액세스하는 데 AWS Transit Gateway 를 사용해야 하는 경우를 설명합니다.


| 데이터 액세스 | Transit Gateway가 필요한 경우 | 
| --- | --- | 
|  NFS, SMB 또는 NetApp ONTAP REST API, CLI 또는 NetApp Console을 통해 FSx에 액세스  |  다음과 같은 경우에만 해당됩니다. [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/fsx/latest/ONTAPGuide/supported-fsx-clients.html)  | 
| iSCSI를 통한 데이터 액세스 | 아니요 | 
| NVMe를 통한 데이터 액세스 | 아니요 | 
| Active Directory에 SVM 조인 | 아니요 | 
| SnapMirror | 아니요 | 
| FlexCache 캐싱 | 아니요 | 
| Global File Cache | 아니요 | 

#### 배포 VPC 외부에서 NVMe, iSCSI 및 클러스터 간 엔드포인트에 액세스하기
<a name="access-iscsi-or-inter-cluster-endpoints-outside-deployment-vpc"></a>

VPC 피어링 또는 AWS Transit Gateway 를 사용하여 파일 시스템의 배포 VPC 외부에서 파일 시스템의 NVMe, iSCSI 및 클러스터 간 엔드포인트에 액세스할 수 있습니다. VPC 피어링을 사용하여 VPC 간에 NVMe, iSCSI 및 클러스터 간 트래픽을 라우팅할 수 있습니다. VPC 피어링 연결은 두 VPC 사이의 네트워킹 연결이며, 프라이빗 IPv4 또는 IPv6 주소를 사용하여 두 VPC 간에 트래픽을 라우팅하는 데 사용됩니다. VPC 피어링을 사용하여 동일한 내에서 AWS 리전 또는 서로 다른 간에 VPCs를 연결할 수 있습니다 AWS 리전. 자세한 내용은 *Amazon VPC 피어링 가이드*의 [VPC 피어링이란?](https://docs.aws.amazon.com/vpc/latest/peering/what-is-vpc-peering.html) 섹션을 참조하세요.

## 온프레미스에서 데이터 액세스
<a name="accessing-data-from-on-premises"></a>

온프레미스에서[Site-to-Site VPN](https://aws.amazon.com/vpn/) 및 [Direct Connect](https://aws.amazon.com/getting-started/projects/connect-data-center-to-aws/)를 사용하여 FSx for ONTAP 파일 시스템에 액세스할 수 있습니다. 보다 구체적인 사용 사례 지침은 다음 섹션에서 확인할 수 있습니다. 온프레미스에서 다양한 FSx for ONTAP 리소스에 액세스하기 위해서는 아래 나열된 요구 사항 외에도 파일 시스템의 VPC 보안 그룹이 파일 시스템과 클라이언트 간에 데이터 흐름을 허용하는지 확인해야 합니다. 필요한 포트 목록은 [Amazon VPC 보안 그룹](https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/limit-access-security-groups.html#fsx-vpc-security-groups)을 참조하세요.

### 온프레미스에서 NFS, SMB, ONTAP CLI 및 REST API 엔드포인트에 액세스하기
<a name="access-NFS-SMB-or-CLI-API-endpoints-from-on-premises"></a>

이 섹션에서는 온프레미스 네트워크에서 FSx for ONTAP 파일 시스템의 NFS, SMB 및 ONTAP 관리 포트에 액세스하는 방법에 대해 설명합니다.

#### 온프레미스에서 다중 AZ 파일 시스템에 액세스하기
<a name="access-multi-az-fs"></a>

Amazon FSx를 사용하려면 AWS Transit Gateway 온프레미스 네트워크에서 다중 AZ 파일 시스템에 액세스하도록 원격 NetApp Global File Cache 또는 NetApp FlexCache를 사용하거나 구성해야 합니다. 다중 AZ 파일 시스템의 가용성 영역 전반에서 장애 조치를 지원하기 위해 Amazon FSx는 NFS, SMB 및 ONTAP 관리 엔드포인트에 사용되는 인터페이스에 플로팅 IP 주소를 사용합니다.

NFS, SMB 및 관리 엔드포인트는 부동 IP 주소를 사용하기 때문에 온프레미스 네트워크에서 이러한 인터페이스 Site-to-Site VPN 에 액세스하려면 AWS Direct Connect 또는와 [AWS Transit Gateway](https://aws.amazon.com/transit-gateway/?whats-new-cards.sort-by=item.additionalFields.postDateTime&whats-new-cards.sort-order=desc) 함께를 사용해야 합니다. 이러한 인터페이스에 사용되는 유동 IP 주소는 다중 AZ 파일 시스템을 생성할 때 지정한 `EndpointIPv4AddressRange` 또는 `EndpointIPv6AddressRange` 내에 있습니다. 엔드포인트 IP 주소는 파일 시스템 생성 방법에 따라 다음 주소 범위를 사용합니다.
+ Amazon FSx 콘솔이나 Amazon FSx API로 생성된 다중 AZ 듀얼 스택 파일 시스템은 기본적으로 VPC의 CIDR 범위 중 하나에서 Amazon FSx가 선택한 사용 가능한 /118 IP 주소 범위를 사용합니다. 동일한 VPC/라우팅 테이블에 배포된 파일 시스템의 엔드포인트 IP 주소는 어떤 서브넷과도 겹치지 않는 경우에는 중복될 수 있습니다.
+ 기본적으로 Amazon FSx 콘솔을 사용하여 생성된 다중 AZ IPv4 전용 파일 시스템은 파일 시스템의 엔드포인트 IP 주소 범위에 VPC 기본 CIDR 범위의 마지막 64개 IP 주소를 사용합니다.

   AWS CLI 또는 Amazon FSx API를 사용하여 생성된 다중 AZ IPv4-only 파일 시스템은 기본적으로 엔드포인트 IP 주소 범위에 대한 `198.19.0.0/16` 주소 블록 내의 IP 주소 범위를 사용합니다.
+ 네트워크 유형에 관계 없이 **표준 생성** 옵션에서 고유한 IP 주소 범위를 지정할 수도 있습니다. 선택한 IP 주소 범위는 서브넷과 겹치지 않고 동일한 VPC 및 라우트 테이블을 가진 다른 파일 시스템에서 이미 사용하고 있지 않다면 VPC의 IP 주소 범위 내부 또는 외부에 위치할 수 있습니다. 이 옵션의 경우 VPC의 IP 주소 범위 내에 있는 범위를 사용하는 것이 좋습니다.

유동 IP 주소는 장애 조치가 필요한 경우 클라이언트를 대기 파일 시스템으로 원활하게 전환할 수 있도록 하는 데 사용됩니다. 자세한 내용은 [FSx for ONTAP의 장애 조치 프로세스](high-availability-AZ.md#Failover) 섹션을 참조하세요.

**중요**  
Transit Gateway를 사용하여 다중 AZ 파일 시스템에 액세스하려면 라우팅 테이블이 파일 시스템과 연결된 서브넷에 각 Transit Gateway Attachment를 생성해야 합니다.

자세한 내용은 [온프레미스에서 다중 AZ 파일 시스템에 액세스하도록 라우팅 구성](configure-routing-maz-on-prem.md) 단원을 참조하십시오.

#### 온프레미스에서 Single-AZ 파일 시스템에 액세스
<a name="access-single-az-fs"></a>

를 사용하여 온프레미스 네트워크에서 데이터에 액세스 AWS Transit Gateway 해야 하는 요구 사항은 단일 AZ 파일 시스템에는 존재하지 않습니다. 단일 AZ 파일 시스템은 단일 서브넷에 배포되며 노드 간 장애 조치를 제공하는 데 유동 IP 주소가 필요하지 않습니다. 대신 단일 AZ 파일 시스템에서 액세스하는 IP 주소는 파일 시스템의 VPC CIDR 범위 내의 보조 IP 주소로 구현되므로 AWS Transit Gateway의 필요 없이 다른 네트워크에서 데이터에 액세스할 수 있습니다.

### 온프레미스에서 클러스터 간 엔드포인트에 액세스
<a name="access-inter-cluster-endpoints-from-on-premises"></a>

FSx for ONTAP의 클러스터 간 엔드포인트는 온프레미스 NetApp 배포와 FSx for ONTAP 사이를 포함하여 NetApp ONTAP 파일 시스템 간의 복제 트래픽 전용입니다. 복제 트래픽에는 다양한 파일 시스템에서의 스토리지 가상 머신(SVM) 및 볼륨과 NetApp Global File Cache 간의 SnapMirror, FlexCache, FlexClone 관계가 포함됩니다. 클러스터 간 엔드포인트는 Active Directory 트래픽에도 사용됩니다.

파일 시스템의 클러스터 간 엔드포인트는 FSx for ONTAP 파일 시스템을 생성할 때 제공하는 VPC의 CIDR 범위 내에 있는 IP 주소를 사용하므로 온프레미스와 AWS 클라우드사이의 클러스터 간 트래픽을 라우팅하는 데 Transit Gateway를 사용할 필요가 없습니다. 그러나 온프레미스 클라이언트는 여전히 Site-to-Site VPN 또는 Direct Connect 를 사용하여 VPC에 대한 보안 연결을 설정해야 합니다.

자세한 내용은 [온프레미스에서 다중 AZ 파일 시스템에 액세스하도록 라우팅 구성](configure-routing-maz-on-prem.md) 단원을 참조하십시오.

# VPC 외부에서 다중 AZ 파일 시스템에 액세스하도록 라우팅 구성
<a name="configuring-routing-using-AWSTG"></a>

`EndpointIPv4AddressRange` 또는가 VPC의 IP 주소 범위를 벗어나는 다중 AZ 파일 시스템이 `EndpointIPv6AddressRange` 있는 경우 피어링된 또는 온프레미스 네트워크에서 파일 시스템에 액세스하려면에서 추가 라우팅 AWS Transit Gateway 을 설정해야 합니다.

**중요**  
Transit Gateway를 사용하여 다중 AZ 파일 시스템에 액세스하려면 라우팅 테이블이 파일 시스템과 연결된 서브넷에 각 Transit Gateway Attachment를 생성해야 합니다.

**참고**  
VPC의 IP 주소 범위 내에 속하는 엔드포인트 IP 주소 범위의 단일 AZ 파일 시스템 또는 다중 AZ 파일 시스템에는 추가 Transit Gateway 구성이 필요하지 않습니다.

**를 사용하여 라우팅을 구성하려면 AWS Transit Gateway**

1. [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/)에서 Amazon FSx 콘솔을 엽니다.

1. 피어링된 네트워크에서 액세스를 구성할 FSx for ONTAP 파일 시스템을 선택합니다.

1. **네트워크 및 보안**에서 엔드포인트 IP 주소 범위를 복사합니다.

1. 이 IP 주소 범위로 향하는 트래픽을 파일 시스템의 VPC로 라우팅하는 Transit Gateway 경로를 추가합니다. 자세한 내용은 *Amazon VPC Transit Gateways*의 [전송 게이트웨이 작업](https://docs.aws.amazon.com/vpc/latest/tgw/working-with-transit-gateways.html)을 참조하세요.

1. 피어링된 네트워크에서 FSx for ONTAP 파일 시스템에 액세스할 수 있는지 확인합니다.

파일 시스템에 라우팅 테이블을 추가하려면 [파일 시스템 업데이트](updating-file-system.md) 섹션을 참조하세요.

**참고**  
관리, NFS 및 SMB 엔드포인트의 DNS 레코드는 파일 시스템과 동일한 VPC 내에서만 확인할 수 있습니다. 볼륨을 마운트하거나 다른 네트워크에서 관리 포트에 연결하려면 엔드포인트의 IP 주소를 사용해야 합니다. 이러한 IP 주소는 시간이 지나도 변경되지 않습니다.

# 온프레미스에서 다중 AZ 파일 시스템에 액세스하도록 라우팅 구성
<a name="configure-routing-maz-on-prem"></a>

**온프레미스에서 다중 AZ 파일 시스템에 AWS Transit Gateway 액세스하도록를 구성하려면**

`EndpointIPv4AddressRange` 또는가 VPC의 CIDR 범위를 벗어나`EndpointIPv6AddressRange`는 다중 AZ 파일 시스템이 있는 경우 피어링된 또는 온프레미스 네트워크에서 파일 시스템에 액세스하려면에서 추가 라우팅 AWS Transit Gateway 을 설정해야 합니다.
**참고**  
VPC의 IP 주소 범위 내에 속하는 엔드포인트 IP 주소 범위의 단일 AZ 파일 시스템 또는 다중 AZ 파일 시스템에는 추가 Transit Gateway 구성이 필요하지 않습니다.

1. [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/)에서 Amazon FSx 콘솔을 엽니다.

1. 피어링된 네트워크에서 액세스를 구성할 FSx for ONTAP 파일 시스템을 선택합니다.

1. **네트워크 및 보안**에서 **엔드포인트 IPv4 또는 IPv6 주소 범위**를 복사합니다.

1. 이 IP 주소 범위로 향하는 트래픽을 파일 시스템의 VPC로 라우팅하는 Transit Gateway 경로를 추가합니다. 자세한 내용은 *Amazon VPC Transit Gateways 사용 설명서*의 [전송 게이트웨이 작업](https://docs.aws.amazon.com/vpc/latest/tgw/working-with-transit-gateways.html)을 참조하세요.

1. 피어링된 네트워크에서 FSx for ONTAP 파일 시스템에 액세스할 수 있는지 확인합니다.

**중요**  
Transit Gateway를 사용하여 다중 AZ 파일 시스템에 액세스하려면 라우팅 테이블이 파일 시스템과 연결된 서브넷에 각 Transit Gateway Attachment를 생성해야 합니다. 별도의 Transit Gateway 연결 서브넷이 있는 경우 해당 서브넷의 라우팅 테이블도 Amazon FSx 엔드포인트 주소로 업데이트되도록 Amazon FSx와 연결해야 합니다.

파일 시스템에 라우팅 테이블을 추가하려면 [파일 시스템 업데이트](updating-file-system.md) 섹션을 참조하세요.

# Linux 클라이언트에 볼륨 탑재
<a name="attach-linux-client"></a>

Linux 클라이언트로 탑재하려는 볼륨의 보안 스타일 설정이 인 것이 좋습니다`UNIX`. 자세한 내용은 [FSx for ONTAP 볼륨 관리](managing-volumes.md) 단원을 참조하십시오.

**참고**  
기본적으로 FSx for ONTAP NFS 마운트는 `hard` 마운트입니다. 장애 발생 시 원활한 장애 조치를 위해 기본 `hard` 마운트 옵션을 사용하는 것이 좋습니다.

**Linux 클라이언트에 ONTAP 볼륨 마운트**

1. [https://console.aws.amazon.com/ec2/](https://console.aws.amazon.com/ec2/)에서 Amazon EC2 콘솔을 엽니다.

1. 파일 시스템과 동일한 VPC에 있는 Amazon Linux 2를 실행하는 Amazon EC2 인스턴스를 생성하거나 선택합니다.

   EC2 Linux 인스턴스 시작에 대한 자세한 내용은 *Amazon EC2 사용 설명서*의 [1단계: 인스턴스 시작하기](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EC2_GetStarted.html#ec2-launch-instance)를 참조하세요.

1. Amazon EC2 Linux 인스턴스에 연결합니다. 자세한 내용은 *Amazon EC2 사용 설명서*의 [Linux 인스턴스에 연결](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/AccessingInstances.html)을 참조하세요.

1. Secure Shell(SSH)을 사용하여 EC2 인스턴스에서 터미널을 열고 적절한 보안 인증으로 로그인합니다.

1. 다음과 같이 SVM 볼륨을 마운트할 디렉터리를 EC2 인스턴스에 생성합니다.

   ```
   sudo mkdir /fsx
   ```

1. 다음 명령을 사용하여 생성한 디렉터리에 볼륨을 마운트합니다.

   ```
   sudo mount -t nfs svm-dns-name:/volume-junction-path /fsx
   ```

   다음 예제는 샘플 값을 사용합니다.

   ```
   sudo mount -t nfs svm-01234567890abdef0.fs-01234567890abcdef1.fsx.us-east-1.amazonaws.com:/vol1 /fsx
   ```

   DNS 이름 대신 SVM의 IP 주소를 사용할 수도 있습니다. DNS 이름을 사용하여 2세대 파일 시스템에 클라이언트를 탑재하는 것이 좋습니다. 클라이언트가 파일 시스템의 고가용성(HA) 페어 간에 균형을 이룰 수 있도록 하기 때문입니다.

   ```
   sudo mount -t nfs 198.51.100.1:/vol1 /fsx
   ```
**참고**  
2세대 파일 시스템의 경우 병렬 NFS(pNFS) 프로토콜이 기본적으로 활성화되어 있으며 NFS v4.1 이상의 볼륨을 탑재하는 모든 클라이언트에 기본적으로 사용됩니다.

## /etc/fstab을 사용하여 인스턴스 재부팅 시 자동으로 마운트
<a name="mount-fs-auto-mount-update-fstab"></a>

Amazon EC2 Linux 인스턴스가 재부팅될 때 FSx for ONTAP 볼륨을 자동으로 다시 마운트하려면 `/etc/fstab` 파일을 사용합니다. `/etc/fstab` 파일에는 파일 시스템에 대한 정보가 들어 있습니다. 인스턴스 시작 중에 실행되는 `mount -a` 명령은 `/etc/fstab`에 나열된 파일 시스템을 마운트합니다.

**참고**  
FSx for ONTAP 파일 시스템은 Amazon EC2 Mac 인스턴스에서 `/etc/fstab`를 사용하는 자동 마운트를 지원하지 않습니다.

**참고**  
EC2 인스턴스의 `/etc/fstab` 파일을 업데이트하려면 FSx for ONTAP 파일 시스템을 미리 만들어 두어야 합니다. 자세한 내용은 [파일 시스템 만들기](creating-file-systems.md) 섹션을 참조하세요.

**EC2 인스턴스의 /etc/fstab 파일 업데이트**

1. EC2 인스턴스에 연결합니다.
   + MacOS 또는 Linux를 실행하는 컴퓨터에서 인스턴스에 연결하려면 SSH 명령에 대해 .pem 파일을 지정합니다. 이렇게 하려면 `-i` 옵션 및 프라이빗 키의 경로를 사용합니다.
   + Windows를 실행 중인 컴퓨터에서 인스턴스에 연결하려면 MindTerm 또는 PuTTY를 사용합니다. PuTTY를 사용하려면 설치하고 .pem 파일을 .ppk 파일로 변환합니다.

   자세한 내용은 *Amazon EC2 사용 설명서*에서 다음 주제를 참조하세요.
   +  [SSH를 사용하여 Linux 인스턴스에 연결](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/AccessingInstancesLinux.html)
   +  [PuTTY를 사용하여 Windows에서 Linux 인스턴스에 연결](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/putty.html) 

1. SVM 볼륨을 마운트하는 데 사용할 로컬 디렉터리를 생성합니다.

   ```
   sudo mkdir /fsx
   ```

1. 원하는 편집기에서 `/etc/fstab` 파일을 엽니다.

1. `/etc/fstab` 파일에 다음 줄을 추가합니다. 각 파라미터 사이에 탭 문자를 삽입합니다. 줄 바꿈 없이 한 줄로 표시되어야 합니다.

   ```
   svm-dns-name:volume-junction-path /fsx nfs nfsvers=version,defaults 0 0
   ```

   볼륨 SVM의 IP 주소를 사용할 수도 있습니다. 마지막 세 파라미터는 NFS 옵션(기본값으로 설정), 파일 시스템 덤핑 및 파일 시스템 검사(이들은 일반적으로 사용되지 않으므로 0으로 설정)를 나타냅니다.

1. 파일 변경 사항을 저장합니다.

1. 이제 다음 명령을 사용하여 파일 공유를 마운트합니다. 다음 번에 시스템을 시작하면 폴더가 자동으로 마운트됩니다.

   ```
   sudo mount /fsx
   sudo mount svm-dns-name:volume-junction-path
   ```

이제 EC2 인스턴스가 다시 시작될 때마다 ONTAP 볼륨을 마운트하도록 구성되었습니다.

# Microsoft Windows 클라이언트에 볼륨 탑재
<a name="attach-windows-client"></a>

이 섹션에서는 Microsoft Windows 운영 체제를 실행하는 클라이언트를 사용하여 FSx for ONTAP 파일 시스템의 데이터에 액세스하는 방법을 설명합니다. 사용 중인 클라이언트 유형과 관계없이 다음 요구 사항을 검토합니다.

이 절차에서는 클라이언트와 파일 시스템이 동일한 VPC 및 AWS 계정에 있는 것으로 가정합니다. 클라이언트가 온프레미스 또는 다른 VPC, AWS 계정또는에 있는 경우 AWS 리전이 절차에서는 AWS Transit Gateway 또는를 사용하여 전용 네트워크 연결을 설정했거나 AWS Direct Connect 또는를 사용하여 프라이빗 보안 터널을 설정했다고 가정합니다 AWS Virtual Private Network. 자세한 내용은 [배포 VPC 외부에서 데이터 액세스](supported-fsx-clients.md#access-from-outside-deployment-vpc) 단원을 참조하십시오.

SMB 프로토콜을 사용하여 Windows 클라이언트에 볼륨을 연결하는 것이 좋습니다.

## 사전 조건
<a name="attach-win-prereqs"></a>

Microsoft Windows 클라이언트를 사용하여 ONTAP 스토리지 볼륨에 액세스하려면 다음 사전 조건을 충족해야 합니다.
+ 연결하려는 볼륨의 SVM을 조직의 Active Directory에 조인하거나 워크그룹을 사용해야 합니다. Active Directory에 SVM 조인에 대한 자세한 내용은 [FSx for ONTAP 스토리지 가상 머신 관리](managing-svms.md) 섹션을 참조하세요. 작업 그룹 사용에 대한 자세한 내용은 [작업 그룹에서 SMB 서버 설정](smb-server-workgroup-setup.md) 섹션을 참조하세요.
+ 연결 중인 볼륨의 보안 스타일 설정은 `NTFS`여야 합니다. 자세한 내용은 [볼륨 보안 스타일](managing-volumes.md#volume-security-style) 단원을 참조하십시오.

**SMB 및 Active Directory를 사용하여 Windows 클라이언트에 볼륨을 마운트하려면 다음과 같이 하세요.**

1. [https://console.aws.amazon.com/ec2/](https://console.aws.amazon.com/ec2/)에서 Amazon EC2 콘솔을 엽니다.

1. 파일 시스템과 동일한 VPC에 있고 볼륨의 SVM과 동일한 Microsoft Active Directory에 조인되어 있으며 Microsoft Windows를 실행하는 Amazon EC2 인스턴스를 만들거나 선택합니다.

   인스턴스 시작에 대한 자세한 내용은 *Amazon EC2 사용 설명서*의 [1단계: 인스턴스 시작하기](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/EC2_GetStarted.html#ec2-launch-instance)를 참조하세요.

   Active Directory에 SVM 조인에 대한 자세한 내용은 [FSx for ONTAP 스토리지 가상 머신 관리](managing-svms.md) 섹션을 참조하세요.

1. Amazon EC2 Windows 인스턴스에 연결합니다. 자세한 내용은 *Amazon EC2 사용 설명서*의 [Windows 인스턴스에 연결](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/connecting_to_windows_instance.html)을 참조하세요.

1. 명령 프롬프트를 엽니다.

1. 다음 명령을 실행합니다. 다음을 바꿉니다.
   + `Z:`를 사용 가능한 드라이브 문자로 바꿉니다.
   + `DNS_NAME`을 볼륨의 SVM에 대한 SMB 엔드포인트의 DNS 이름 또는 IP 주소로 바꿉니다.
   + `SHARE_NAME`를 SMB 공유의 이름으로 바꿉니다. `C$`는 SVM 네임스페이스의 루트에 있는 기본 SMB 공유이지만, 스토리지를 루트 볼륨에 노출시켜 보안 및 서비스 중단을 일으킬 수 있으므로 마운트하지 않아야 합니다. `C$` 대신 탑재할 SMB 공유 이름을 제공해야 합니다. SMB 공유 생성에 대한 자세한 내용은 [SMB 공유 관리](create-smb-shares.md) 섹션을 참조하세요.

   ```
   net use Z: \\DNS_NAME\SHARE_NAME
   ```

   다음 예제는 샘플 값을 사용합니다.

   ```
   net use Z: \\corp.example.com\group_share
   ```

   DNS 이름 대신 SVM의 IP 주소를 사용할 수도 있습니다. DNS 이름을 사용하여 2세대 파일 시스템에 클라이언트를 탑재하는 것이 좋습니다. 클라이언트가 파일 시스템의 고가용성(HA) 페어 간에 균형을 이룰 수 있도록 하기 때문입니다.

   ```
   net use Z: \\198.51.100.5\group_share
   ```

# MacOS 클라이언트에서 볼륨 탑재
<a name="attach-mac-client"></a>

이 섹션에서는 MacOS 운영 체제를 실행하는 클라이언트를 사용하여 FSx for ONTAP 파일 시스템의 데이터에 액세스하는 방법을 설명합니다. 사용 중인 클라이언트 유형과 관계없이 다음 요구 사항을 검토합니다.

이 절차에서는 클라이언트와 파일 시스템이 동일한 VPC 및 AWS 계정에 있는 것으로 가정합니다. 클라이언트가 온프레미스 또는 다른 VPC에 있는 경우 AWS 계정 또는 AWS Transit Gateway 를 사용하여 전용 네트워크 연결을 설정 AWS Direct Connect 했거나를 사용하여 프라이빗 보안 터널을 설정 AWS 리전했습니다 AWS Virtual Private Network. 자세한 내용은 [배포 VPC 외부에서 데이터 액세스](supported-fsx-clients.md#access-from-outside-deployment-vpc) 단원을 참조하십시오.

SMB 프로토콜을 사용하여 Mac 클라이언트에 볼륨을 연결하는 것이 좋습니다.

**SMB를 사용하여 MacOS 클라이언트에 ONTAP 볼륨 마운트**

1. [https://console.aws.amazon.com/ec2/](https://console.aws.amazon.com/ec2/)에서 Amazon EC2 콘솔을 엽니다.

1. 파일 시스템과 동일한 VPC에 있는 MacOS를 실행하는 Amazon EC2 Mac 인스턴스를 생성하거나 선택합니다.

   인스턴스 시작에 대한 자세한 내용은 *Amazon EC2 사용 설명서*의 [1단계: 인스턴스 시작하기](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-mac-instances.html#mac-instance-launch)를 참조하세요.

1. Amazon EC2 Mac 인스턴스에 연결합니다. 자세한 내용은 *Amazon EC2 사용 설명서*의 [Linux 인스턴스에 연결](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/AccessingInstances.html)을 참조하세요.

1. Secure Shell(SSH)을 사용하여 EC2 인스턴스에서 터미널을 열고 적절한 보안 인증으로 로그인합니다.

1. 다음과 같이 볼륨을 마운트할 디렉터리를 EC2 인스턴스에 생성합니다.

   ```
   sudo mkdir /fsx
   ```

1. 다음 명령을 사용하여 볼륨을 마운트합니다.

   ```
   sudo mount -t smbfs filesystem-dns-name:/smb-share-name mount-point
   ```

   다음 예제는 샘플 값을 사용합니다.

   ```
   sudo mount -t smbfs svm-01234567890abcde2.fs-01234567890abcde5.fsx.us-east-1.amazonaws.com:/C$ /fsx
   ```

   DNS 이름 대신 SVM의 IP 주소를 사용할 수도 있습니다. DNS 이름을 사용하여 2세대 파일 시스템에 클라이언트를 탑재하는 것이 좋습니다. 클라이언트가 파일 시스템의 고가용성(HA) 페어 간에 균형을 이룰 수 있도록 하기 때문입니다.

   ```
   sudo mount -t smbfs 198.51.100.10:/C$ /fsx
   ```

   `C$`는 SVM 네임스페이스의 루트를 확인하기 위해 마운트할 수 있는 기본 SMB 공유입니다. SVM에 Server Message Block(SMB)공유를 생성한 경우 `C$` 대신 SMB 공유 이름을 제공합니다. SMB 공유 생성에 대한 자세한 내용은 [SMB 공유 관리](create-smb-shares.md) 섹션을 참조하세요.

**NFS를 사용하여 MacOS 클라이언트에 ONTAP 볼륨 마운트**

1. [https://console.aws.amazon.com/ec2/](https://console.aws.amazon.com/ec2/)에서 Amazon EC2 콘솔을 엽니다.

1. 파일 시스템과 동일한 VPC에 있는 Amazon Linux 2를 실행하는 Amazon EC2 인스턴스를 생성하거나 선택합니다.

   EC2 Linux 인스턴스 시작에 대한 자세한 내용은 *Amazon EC2 사용 설명서*의 [1단계: 인스턴스 시작하기](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/EC2_GetStarted.html#ec2-launch-instance)를 참조하세요.

1. Amazon EC2 Linux 인스턴스에 연결합니다. 자세한 내용은 *Amazon EC2 사용 설명서*의 [Linux 인스턴스에 연결](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/AccessingInstances.html)을 참조하세요.

1. 인스턴스 시작 중에 사용자 데이터 스크립트를 사용하거나 다음 명령을 실행하여 Linux EC2 인스턴스에 FSx for ONTAP 볼륨을 마운트합니다.

   ```
   sudo mount -t nfs -o nfsvers=NFS_version svm-dns-name:/volume-junction-path /mount-point
   ```

   다음 예제는 샘플 값을 사용합니다.

   ```
   sudo mount -t nfs -o nfsvers=4.1 svm-01234567890abdef0.fs-01234567890abcdef1.fsx.us-east-1.amazonaws.com:/vol1 /fsxontap
   ```

   DNS 이름 대신 SVM의 IP 주소를 사용할 수도 있습니다. DNS 이름을 사용하여 2세대 파일 시스템에 클라이언트를 탑재하는 것이 좋습니다. 클라이언트가 파일 시스템의 HA 페어 간에 균형을 이룰 수 있도록 하기 때문입니다.

   ```
   sudo mount -t nfs -o nfsvers=4.1 198.51.100.1:/vol1 /fsxontap
   ```

1. 생성한 디렉터리에 다음 명령을 사용하여 볼륨을 마운트합니다.

   ```
   sudo mount -t nfs svm-dns-name:/volume-junction-path /fsx
   ```

   다음 예제는 샘플 값을 사용합니다.

   ```
   sudo mount -t nfs svm-01234567890abdef0.fs-01234567890abcdef1.fsx.us-east-1.amazonaws.com:/vol1 /fsx
   ```

   DNS 이름 대신 SVM의 IP 주소를 사용할 수도 있습니다. DNS 이름을 사용하여 2세대 파일 시스템에 클라이언트를 탑재하는 것이 좋습니다. 클라이언트가 파일 시스템의 고가용성(HA) 페어 간에 균형을 이룰 수 있도록 하기 때문입니다.

   ```
   sudo mount -t nfs 198.51.100.1:/vol1 /fsx
   ```

# Linux용 iSCSI 프로비저닝
<a name="mount-iscsi-luns-linux"></a>

FSx for ONTAP는 iSCSI 프로토콜을 지원합니다. iSCSI 프로토콜을 사용하여 클라이언트와 파일 시스템 간에 데이터를 전송하려면 Linux 클라이언트와 파일 시스템 모두에서 iSCSI를 프로비저닝해야 합니다. iSCSI 프로토콜은 [고가용성 페어(HA)](HA-pairs.md)가 6개 이하인 모든 파일 시스템에서 사용할 수 있습니다.

Amazon FSx for NetApp ONTAP에서 iSCSI를 구성하는 세 가지 주요 단계는 다음 절차에서 다룹니다.

1. Linux 호스트에 iSCSI 클라이언트를 설치하고 구성합니다.

1. 파일 시스템의 SVM에서 iSCSI를 구성합니다.
   + iSCSI 이니시에이터 그룹을 생성합니다.
   + 이니시에이터 그룹을 LUN에 매핑합니다.

1. Linux 클라이언트에 iSCSI LUN 마운트

## 시작하기 전 준비 사항
<a name="iscsi-linux-byb"></a>

iSCSI용 파일 시스템을 구성하는 프로세스를 시작하기 전에 다음 항목을 완료해야 합니다.
+ FSx for ONTAP 파일 시스템을 생성합니다. 자세한 내용은 [파일 시스템 만들기](creating-file-systems.md) 섹션을 참조하세요.
+ 파일 시스템에서 iSCSI LUN을 생성합니다. 자세한 내용은 [iSCSI LUN 생성](create-iscsi-lun.md) 섹션을 참조하세요.
+ 파일 시스템과 동일한 VPC에서 Amazon Linux 2 AMI(Amazon 머신 이미지)를 실행하는 EC2 인스턴스를 생성합니다. iSCSI를 구성하고 파일 데이터에 액세스할 Linux 호스트입니다.

  이러한 절차의 범위를 넘어 호스트가 다른 VPC에 있는 경우, VPC 피어링 또는 AWS Transit Gateway를 사용하여 다른 VPC에 볼륨의 iSCSI 엔드포인트에 대한 액세스 권한을 부여할 수 있습니다. 자세한 내용은 [배포 VPC 외부에서 데이터 액세스](supported-fsx-clients.md#access-from-outside-deployment-vpc) 섹션을 참조하세요.
+ [Amazon VPC를 사용한 파일 시스템 액세스 제어](limit-access-security-groups.md)에 설명된 대로 인바운드 및 아웃바운드 트래픽을 허용하도록 Linux 호스트의 VPC 보안 그룹을 구성합니다.
+ ONTAP CLI에 액세스하는 데 사용할 `fsxadmin` 권한이 있는 ONTAP 사용자의 자격 증명을 가져옵니다. 자세한 내용은 [ONTAP 사용자 및 역할](roles-and-users.md) 섹션을 참조하세요.
+ iSCSI용으로 구성하고 FSx for ONTAP 파일 시스템에 액세스하는 데 사용할 Linux 호스트는 동일한 VPC와 AWS 계정에 있습니다.
+ 다음 그림과 같이 EC2 인스턴스는 파일 시스템의 기본 서브넷과 동일한 가용 영역에 배치하는 것이 좋습니다.  
![\[Amazon FSx for NetApp ONTAP 파일 시스템에서 iSCSI LUN과 Amazon EC2 인스턴스가 파일 시스템의 기본 서브넷과 동일한 가용성 영역에 위치하고 있음을 보여주는 이미지입니다.\]](http://docs.aws.amazon.com/ko_kr/fsx/latest/ONTAPGuide/images/fsx-ontap-iscsi-mnt-client.png)

EC2 인스턴스가 Amazon Linux 2과 다른 Linux AMI를 실행하는 경우 이러한 절차 및 예제에 사용된 일부 유틸리티가 이미 설치되어 있을 수 있으며, 다른 명령을 사용하여 필요한 패키지를 설치할 수 있습니다. 패키지 설치 외에도 이 섹션에 사용된 명령은 다른 EC2 Linux AMI에도 유효합니다.

**Topics**
+ [시작하기 전 준비 사항](#iscsi-linux-byb)
+ [Linux 호스트에 iSCSI 설치 및 구성](#configure-iscsi-on-linux-client)
+ [FSx for ONTAP 파일 시스템에 iSCSI 구성](#configure-iscsi-on-fsx-ontap)
+ [Linux 클라이언트에 iSCSI LUN 마운트](#mount-iscsi-lun-on-linux-client)

## Linux 호스트에 iSCSI 설치 및 구성
<a name="configure-iscsi-on-linux-client"></a>

**iSCSI 클라이언트 설치**

1. Linux 디바이스에 `iscsi-initiator-utils` 및 `device-mapper-multipath`가 설치되어 있는지 확인합니다. SSH 클라이언트를 사용하여 Linux 인스턴스에 연결합니다. 자세한 내용은 [SSH를 사용하여 Linux 인스턴스에 연결](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/AccessingInstancesLinux.html)을 참조하세요.

1. 다음 명령을 사용하여 `multipath`와 iSCSI 클라이언트를 설치하세요. 파일 서버 간에 자동으로 장애 조치하려면 `multipath`를 설치해야 합니다.

   ```
   ~$ sudo yum install -y device-mapper-multipath iscsi-initiator-utils
   ```

1. `multipath`를 사용하는 경우 파일 서버 간에 자동으로 장애 조치할 때 응답 속도를 높이려면 `/etc/iscsi/iscsid.conf` 파일의 대체 제한 시간 값을 기본값인 `120` 대신 `5`로 설정합니다.

   ```
   ~$ sudo sed -i 's/node.session.timeo.replacement_timeout = .*/node.session.timeo.replacement_timeout = 5/' /etc/iscsi/iscsid.conf; sudo cat /etc/iscsi/iscsid.conf | grep node.session.timeo.replacement_timeout
   ```

1. iSCSI 서비스를 시작합니다.

   ```
   ~$ sudo service iscsid start
   ```

   단, Linux 버전에 따라 다음 명령을 대신 사용해야 할 수도 있습니다.

   ```
   ~$ sudo systemctl start iscsid
   ```

1. 다음 명령을 사용하여 에이전트가 실행 중인지 확인합니다.

   ```
   ~$ sudo systemctl status iscsid.service
   ```

   시스템이 다음 출력으로 응답합니다.

   ```
   iscsid.service - Open-iSCSI 
       Loaded: loaded (/usr/lib/systemd/system/iscsid.service; disabled; vendor preset: disabled) 
       Active: active (running) since Fri 2021-09-02 00:00:00 UTC; 1min ago
       Docs: man:iscsid(8)
       man:iscsiadm(8)
       Process: 14658 ExecStart=/usr/sbin/iscsid (code=exited, status=0/SUCCESS)
       Main PID: 14660 (iscsid)
       CGroup: /system.slice/iscsid.service
       ├─14659 /usr/sbin/iscsid
       └─14660 /usr/sbin/iscsid
   ```

**Linux 클라이언트에 iSCSI 구성**

1. 클라이언트가 파일 서버 간에 자동으로 장애 조치할 수 있도록 하려면 다중 경로를 구성해야 합니다. 다음 명령을 사용합니다.

   ```
   ~$ sudo mpathconf --enable --with_multipathd y
   ```

1. 다음 명령을 사용하여 Linux 호스트의 이니시에이터 이름을 확인합니다. 이니시에이터 이름의 위치는 iSCSI 유틸리티에 따라 다릅니다. `iscsi-initiator-utils`를 사용하는 경우 이니시에이터 이름은 `/etc/iscsi/initiatorname.iscsi` 파일에 있습니다.

   ```
   ~$ sudo cat /etc/iscsi/initiatorname.iscsi
   ```

   시스템이 이니시에이터 이름으로 응답합니다.

   ```
   InitiatorName=iqn.1994-05.com.redhat:abcdef12345
   ```

## FSx for ONTAP 파일 시스템에 iSCSI 구성
<a name="configure-iscsi-on-fsx-ontap"></a>

1. 다음 명령을 사용하여 iSCSI LUN을 생성한 FSx for ONTAP 파일 시스템의 NetApp ONTAP CLI에 연결합니다. 자세한 내용은 [NetApp ONTAP CLI 사용](managing-resources-ontap-apps.md#netapp-ontap-cli) 섹션을 참조하세요.

   ```
   ~$ ssh fsxadmin@your_management_endpoint_ip
   ```

1. NetApp ONTAP CLI [https://docs.netapp.com/us-en/ontap-cli-9111/lun-igroup-create.html](https://docs.netapp.com/us-en/ontap-cli-9111/lun-igroup-create.html) 명령을 사용하여 이니시에이터 그룹(`igroup`)을 생성합니다. 이니시에이터 그룹은 iSCSI LUN에 매핑되며 LUN에 액세스할 수 있는 이니시에이터(클라이언트)를 제어합니다. `host_initiator_name`을 이전 절차에서 검색한 Linux 호스트의 이니시에이터 이름으로 바꿉니다.

   ```
   ::> lun igroup create -vserver svm_name -igroup igroup_name -initiator host_initiator_name -protocol iscsi -ostype linux 
   ```

   이 igroup에 매핑된 LUN을 여러 호스트에서 사용할 수 있도록 하려면 여러 이니시에이터 이름을 쉼표로 구분하여 지정할 수 있습니다. 자세한 내용은 *NetApp ONTAP 설명서 센터*의 [lun igroup 생성](https://docs.netapp.com/us-en/ontap-cli-9111/lun-igroup-create.html)을 참조하세요.

1. [https://docs.netapp.com/us-en/ontap-cli-9111/lun-igroup-show.html](https://docs.netapp.com/us-en/ontap-cli-9111/lun-igroup-show.html) 명령을 사용하여 `igroup`이 존재하는지 확인합니다.

   ```
   ::> lun igroup show
   ```

   시스템이 다음 출력으로 응답합니다.

   ```
   Vserver   Igroup       Protocol OS Type  Initiators
   --------- ------------ -------- -------- ------------------------------------
   svm_name  igroup_name  iscsi    linux    iqn.1994-05.com.redhat:abcdef12345
   ```

1. 이 단계에서는 이미 iSCSI LUN을 생성한 것으로 가정합니다. 아직 생성되지 않은 경우 단계별 지침으로 [iSCSI LUN 생성](create-iscsi-lun.md) 섹션을 참조하여 생성합니다.

   [https://docs.netapp.com/us-en/ontap-cli-9111/lun-mapping-create.html](https://docs.netapp.com/us-en/ontap-cli-9111/lun-mapping-create.html) 명령을 사용해서 다음 속성을 지정하여 생성된 LUN과 생성된 igroup 사이의 매핑을 생성합니다.
   + `svm_name` – iSCSI 대상을 제공하는 스토리지 가상 머신의 이름입니다. 호스트는 이 값을 사용하여 LUN에 도달합니다.
   + `vol_name` – LUN을 호스팅하는 볼륨의 이름입니다.
   + `lun_name` – LUN에 할당한 이름입니다.
   + `igroup_name` – 이니시에이터 그룹의 이름입니다.
   + `lun_id` – LUN ID 정수는 LUN 자체가 아니라 매핑에만 해당됩니다. 이는 igroup의 이니시에이터에 의해 사용되며, 이니시에이터가 스토리지에 액세스할 때 논리 유닛 번호로 사용됩니다.

   ```
   ::> lun mapping create -vserver svm_name -path /vol/vol_name/lun_name -igroup igroup_name -lun-id lun_id
   ```

1. [https://docs.netapp.com/us-en/ontap-cli-9111/lun-show.html](https://docs.netapp.com/us-en/ontap-cli-9111/lun-show.html) 명령을 사용하여 LUN이 생성되고 온라인 상태이며 매핑되었는지 확인합니다.

   ```
   ::> lun show -path /vol/vol_name/lun_name -fields state,mapped,serial-hex
   ```

   시스템이 다음 출력으로 응답합니다.

   ```
    Vserver    Path                           serial-hex               state    mapped
    --------- ------------------------------- ------------------------ -------- --------
    svm_name  /vol/vol_name/lun_name          6c5742314e5d52766e796150 online   mapped
   ```

   `serial_hex` 값(이 예제에서는 `6c5742314e5d52766e796150`)을 저장하면, 이후 단계에서 이 값을 사용하여 블록 장치에 친숙한 이름을 만들 수 있습니다.

1. [https://docs.netapp.com/us-en/ontap-cli-9111/network-interface-show.html](https://docs.netapp.com/us-en/ontap-cli-9111/network-interface-show.html) 명령을 사용하여 iSCSI LUN을 생성한 SVM의 `iscsi_1` 및 `iscsi_2` 인터페이스 주소를 검색합니다.

   ```
   ::> network interface show -vserver svm_name
   ```

   시스템이 다음 출력으로 응답합니다.

   ```
               Logical               Status     Network            Current                    Current Is 
   Vserver     Interface             Admin/Oper Address/Mask       Node                       Port    Home
   ----------- ----------            ---------- ------------------ -------------              ------- ----
   svm_name
               iscsi_1               up/up      172.31.0.143/20    FSxId0123456789abcdef8-01  e0e     true
               iscsi_2               up/up      172.31.21.81/20    FSxId0123456789abcdef8-02  e0e     true
               nfs_smb_management_1 
                                     up/up      198.19.250.177/20  FSxId0123456789abcdef8-01  e0e     true
   3 entries were displayed.
   ```

   이 예제에서 `iscsi_1`의 IP 주소는 `172.31.0.143`이고 `iscsi_2`의 IP 주소는 `172.31.21.81`입니다.

## Linux 클라이언트에 iSCSI LUN 마운트
<a name="mount-iscsi-lun-on-linux-client"></a>

Linux 클라이언트에 iSCSI LUN을 탑재하는 프로세스는 세 단계로 구성됩니다.

1. 대상 iSCSI 노드 검색

1. iSCSI LUN 분할

1. 클라이언트에 iSCSI LUN 탑재

이는 다음 절차에서 다룹니다.

**대상 iSCSI 노드를 검색하려면**

1. Linux 클라이언트에서 `iscsi_1`의 IP 주소인 *iscsi\$11\$1IP*를 사용하여 대상 iSCSI 노드를 검색하려면 다음 명령을 사용합니다.

   ```
   ~$ sudo iscsiadm --mode discovery --op update --type sendtargets --portal iscsi_1_IP
   ```

   ```
   172.31.0.143:3260,1029 iqn.1992-08.com.netapp:sn.9cfa2c41207a11ecac390182c38bc256:vs.3
   172.31.21.81:3260,1028 iqn.1992-08.com.netapp:sn.9cfa2c41207a11ecac390182c38bc256:vs.3
   ```

   이 예제에서 `iqn.1992-08.com.netapp:sn.9cfa2c41207a11ecac390182c38bc256:vs.3`은 기본 가용성 영역에 있는 iSCSI LUN의 `target_initiator`에 해당합니다.

1. (선택 사항) Amazon EC2 단일 클라이언트 최대 처리량인 5Gbps(\$1625MBps)보다 더 높은 처리량을 iSCSI LUN으로 전송하려면 Linux 인스턴스용 Amazon Elastic Compute Cloud 사용 설명서의 [Amazon EC2 인스턴스 네트워크 대역폭](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-instance-network-bandwidth.html)에 설명된 절차에 따라 처리량 향상을 위한 추가 세션을 설정하세요.

   다음 명령은 각 가용 영역에서 ONTAP 노드당 이니시에이터별로 8개의 세션을 설정하여 클라이언트가 iSCSI LUN에 최대 40Gbps(5,000MBps)의 총 처리량을 제공할 수 있도록 합니다.

   ```
   ~$ sudo iscsiadm --mode node -T target_initiator --op update -n node.session.nr_sessions -v 8
   ```

1. 대상 이니시에이터에 로그인합니다. iSCSI LUN이 사용 가능한 디스크로 표시됩니다.

   ```
   ~$ sudo iscsiadm --mode node -T target_initiator --login
   ```

   ```
   Logging in to [iface: default, target: iqn.1992-08.com.netapp:sn.9cfa2c41207a11ecac390182c38bc256:vs.3, portal: 172.31.14.66,3260] (multiple)
   Login to [iface: default, target: iqn.1992-08.com.netapp:sn.9cfa2c41207a11ecac390182c38bc256:vs.3, portal: 172.31.14.66,3260] successful.
   ```

   위 출력은 잘렸습니다. 각 파일 서버의 세션마다 `Logging in` 응답과 `Login successful` 응답이 하나씩 표시되어야 합니다. 노드당 세션이 4개인 경우 응답은 `Logging in` 8개와 `Login successful` 8개입니다.

1. 다음 명령을 사용하여 `dm-multipath`가 여러 정책이 있는 단일 LUN을 표시하여 iSCSI 세션을 식별하고 병합했는지 확인합니다. `active`로 나열된 디바이스와 `enabled`로 나열된 디바이스 수가 같아야 합니다.

   ```
   ~$ sudo multipath -ll
   ```

   출력에서 디스크 이름은 `dm-xyz`와 같은 형식으로 지정됩니다. 여기서 `xyz`는 정수입니다. 다른 멀티패스 디스크가 없는 경우 이 값은 `dm-0`입니다.

   ```
   3600a09806c5742314e5d52766e79614f dm-xyz NETAPP  ,LUN C-Mode      
   size=10G features='4 queue_if_no_path pg_init_retries 50 retain_attached_hw_handle' hwhandler='0' wp=rw
   |-+- policy='service-time 0' prio=50 status=active
   | |- 0:0:0:1 sda     8:0   active ready running
   | |- 1:0:0:1 sdc     8:32  active ready running
   | |- 3:0:0:1 sdg     8:96  active ready running
   | `- 4:0:0:1 sdh     8:112 active ready running
   `-+- policy='service-time 0' prio=10 status=enabled
     |- 2:0:0:1 sdb     8:16  active ready running
     |- 7:0:0:1 sdf     8:80  active ready running
     |- 6:0:0:1 sde     8:64  active ready running
     `- 5:0:0:1 sdd     8:48  active ready running
   ```

   이제 블록 디바이스가 Linux 클라이언트에 연결되었습니다. 이는 `/dev/dm-xyz` 경로에 있습니다. 이 경로를 관리 목적으로 사용해서는 안 됩니다. 대신 경로 `/dev/mapper/wwid`에 있는 심볼 링크를 사용합니다. 여기서 `wwid`는 디바이스 간에 일관된 LUN의 고유 식별자입니다. 다음 단계에서는 다른 다중 경로 디스크와 구별할 수 있도록 `wwid`에 친숙한 이름을 지정합니다.

**블록 디바이스에 표시 이름을 할당하려면**

1. `/etc/multipath.conf` 파일에 별칭을 만들어 디바이스에 친숙한 이름을 지정합니다. 이렇게 하려면 선호하는 텍스트 편집기를 사용하여 다음 자리 표시자를 대체하여 파일에 다음 항목을 추가합니다.
   + `serial_hex`를 [FSx for ONTAP 파일 시스템에 iSCSI 구성](#configure-iscsi-on-fsx-ontap) 절차에서 저장한 값으로 바꿉니다.
   + 예제에 표시된 대로 `serial_hex` 값에 접두사 `3600a0980`을 추가합니다. 이것은Amazon FSx for NetApp ONTAP이 사용하는 NetApp ONTAP 배포판의 고유한 프리앰블입니다.
   + `device_name`을 디바이스에 사용할 친숙한 이름으로 바꿉니다.

   ```
   multipaths {
       multipath {
           wwid 3600a0980serial_hex
           alias device_name
       }
   }
   ```

   또는 다음 스크립트를 bash 파일(예: `multipath_alias.sh`)로 복사하여 저장할 수도 있습니다. `serial_hex`(3600a0980 접두사 없이) 및 `device_name`을 해당 일련 번호 및 원하는 친숙한 이름으로 바꾸어 sudo 권한을 사용하여 스크립트를 실행할 수 있습니다. 이 스크립트는 `/etc/multipath.conf` 파일에서 주석이 없는 `multipaths` 섹션을 검색합니다. 해당 항목이 있으면 해당 섹션에 `multipath` 항목이 추가됩니다. 없으면 블록 디바이스에 `multipath` 항목이 있는 새 `multipaths` 섹션이 생성됩니다.

   ```
   #!/bin/bash
   SN=serial_hex
   ALIAS=device_name
   CONF=/etc/multipath.conf
   grep -q '^multipaths {' $CONF
   UNCOMMENTED=$?
   if [ $UNCOMMENTED -eq 0 ]
   then
           sed -i '/^multipaths {/a\\tmultipath {\n\t\twwid 3600a0980'"${SN}"'\n\t\talias '"${ALIAS}"'\n\t}\n' $CONF
   else
           printf "multipaths {\n\tmultipath {\n\t\twwid 3600a0980$SN\n\t\talias $ALIAS\n\t}\n}" >> $CONF
   fi
   ```

1. `multipathd` 서비스를 다시 시작하여 `/etc/multipathd.conf`의 변경 사항을 적용합니다.

   ```
   ~$ systemctl restart multipathd.service
   ```

**LUN 파티션**

다음 단계는 `fdisk`를 사용하여 LUN을 포맷하고 파티셔닝하는 것입니다.

1. 다음 명령을 사용하여 `device_name`에 대한 경로가 있는지 확인합니다.

   ```
   ~$ ls /dev/mapper/device_name
   ```

   ```
   /dev/device_name
   ```

1. `fdisk`를 사용하여 디스크를 파티셔닝합니다. 대화형 프롬프트가 나타날 것입니다. 표시된 순서대로 옵션을 입력합니다. 마지막 섹터보다 작은 값(이 예제에서는 `20971519`)을 사용하여 여러 파티션을 만들 수 있습니다.
**참고**  
`Last sector` 값은 iSCSI LUN의 크기(이 예에서는 10GB)에 따라 달라집니다.

   ```
   ~$ sudo fdisk /dev/mapper/device_name
   ```

   `fsdisk` 대화형 프롬프트가 시작됩니다.

   ```
   Welcome to fdisk (util-linux 2.30.2). 
   
   Changes will remain in memory only, until you decide to write them. 
   Be careful before using the write command. 
   
   Device does not contain a recognized partition table. 
   Created a new DOS disklabel with disk identifier 0x66595cb0. 
   
   Command (m for help): n 
   Partition type 
      p primary (0 primary, 0 extended, 4 free) 
      e extended (container for logical partitions) 
   Select (default p): p 
   Partition number (1-4, default 1): 1 
   First sector (2048-20971519, default 2048): 2048 
   Last sector, +sectors or +size{K,M,G,T,P} (2048-20971519, default 20971519): 20971519
                                       
   Created a new partition 1 of type 'Linux' and of size 512 B.
   Command (m for help): w
   The partition table has been altered.
   Calling ioctl() to re-read partition table. 
   Syncing disks.
   ```

   `w`를 입력하면 새 파티션 `/dev/mapper/partition_name`을 사용할 수 있게 됩니다. *partition\$1name*의 형식은 *<device\$1name>**<partition\$1number>*입니다. `1`은 이전 단계의 `fdisk` 명령에 사용된 파티션 번호로 사용되었습니다.

1. `/dev/mapper/partition_name`을 경로로 사용하여 파일 시스템을 생성합니다.

   ```
   ~$ sudo mkfs.ext4 /dev/mapper/partition_name
   ```

   시스템이 다음 출력으로 응답합니다.

   ```
   mke2fs 1.42.9 (28-Dec-2013)
   Discarding device blocks: done 
   Filesystem label=
   OS type: Linux
   Block size=4096 (log=2)
   Fragment size=4096 (log=2)
   Stride=0 blocks, Stripe width=16 blocks
   655360 inodes, 2621184 blocks
   131059 blocks (5.00%) reserved for the super user
   First data block=0
   Maximum filesystem blocks=2151677952
   80 block groups
   32768 blocks per group, 32768 fragments per group
   8192 inodes per group
   Superblock backups stored on blocks: 
        32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632
   Allocating group tables: done 
   Writing inode tables: done 
   Creating journal (32768 blocks): done
   Writing superblocks and filesystem accounting information: done
   ```

**Linux 클라이언트에 LUN 마운트**

1. *directory\$1path* 디렉터리를 파일 시스템의 마운트 지점으로 생성합니다.

   ```
   ~$ sudo mkdir /directory_path/mount_point
   ```

1. 다음 명령을 사용하여 파일 시스템을 마운트합니다.

   ```
   ~$ sudo mount -t ext4 /dev/mapper/partition_name /directory_path/mount_point
   ```

1. (선택 사항) 특정 사용자에게 탑재 디렉터리의 소유권을 부여하려면 *`username`*를 소유자의 사용자 아이디로 바꿉니다.

   ```
   ~$ sudo chown username:username /directory_path/mount_point
   ```

1. (선택 사항) 파일 시스템에서 데이터를 읽고 쓸 수 있는지 확인합니다.

   ```
   ~$ echo "Hello world!" > /directory_path/mount_point/HelloWorld.txt
   ~$ cat directory_path/HelloWorld.txt
   Hello world!
   ```

   Linux 클라이언트에 iSCSI LUN을 성공적으로 생성하고 마운트했습니다.

# Windows용 iSCSI 프로비저닝
<a name="mount-iscsi-windows"></a>

FSx for ONTAP는 iSCSI 프로토콜을 지원합니다. iSCSI 프로토콜을 사용하여 클라이언트와 파일 시스템 간에 데이터를 전송하려면 Windows 클라이언트와 SVM 및 볼륨 모두에서 iSCSI를 프로비저닝해야 합니다. iSCSI 프로토콜은 [고가용성 페어(HA)](HA-pairs.md)가 6개 이하인 모든 파일 시스템에서 사용할 수 있습니다.

이 절차에 제시된 예제에서는 클라이언트 및 FSx for ONTAP 파일 시스템에 iSCSI 프로토콜을 프로비저닝하고 다음 설정을 사용하는 방법을 보여줍니다.
+ Windows 호스트에 마운트되는 iSCSI LUN이 이미 생성되었습니다. 자세한 내용은 [iSCSI LUN 생성](create-iscsi-lun.md) 섹션을 참조하세요.
+ iSCSI LUN을 마운트하는 Microsoft Windows 호스트는 Microsoft Windows Server 2019 Amazon Machine Image(AMI)를 실행하는 Amazon EC2 인스턴스입니다. [Amazon VPC를 사용한 파일 시스템 액세스 제어](limit-access-security-groups.md)에 설명된 대로 인바운드 및 아웃바운드 트래픽을 허용하도록 구성된 VPC 보안 그룹이 있습니다.

  설정에서 다른 Microsoft Windows AMI를 사용하고 있을 수 있습니다.
+ 클라이언트와 파일 시스템이 동일한 VPC 및 AWS 계정에 있습니다. 클라이언트가 다른 VPC에 있는 경우 VPC 피어링 또는 AWS Transit Gateway 를 사용하여 다른 VPCs iSCSI 엔드포인트에 대한 액세스 권한을 부여할 수 있습니다. 자세한 내용은 [배포 VPC 외부에서 데이터 액세스](supported-fsx-clients.md#access-from-outside-deployment-vpc) 단원을 참조하십시오.

  다음 그림과 같이 EC2 인스턴스는 파일 시스템의 기본 서브넷과 동일한 가용 영역에 배치하는 것이 좋습니다.

![\[Amazon FSx for NetApp ONTAP 파일 시스템에서 iSCSI LUN과 Amazon EC2 인스턴스가 파일 시스템의 기본 서브넷과 동일한 가용성 영역에 위치하고 있음을 보여주는 이미지입니다.\]](http://docs.aws.amazon.com/ko_kr/fsx/latest/ONTAPGuide/images/fsx-ontap-iscsi-mnt-client.png)


**Topics**
+ [Windows 클라이언트에 iSCSI 구성](#configure-iscsi-win-client)
+ [FSx for ONTAP 파일 시스템에 iSCSI 구성](#configure-iscsi-on-ontap-win)
+ [Windows 클라이언트에 iSCSI LUN 마운트](#configure-iscsi-on-fsx)
+ [iSCSI 구성 검증](#validate-iscsi-windows)

## Windows 클라이언트에 iSCSI 구성
<a name="configure-iscsi-win-client"></a>

1. Windows 원격 데스크톱을 사용하여 iSCSI LUN을 마운트하려는 Windows 클라이언트에 연결합니다. 자세한 내용은 *Amazon Elastic Compute Cloud 사용 설명서*의 [RDP를 사용하여 Windows 인스턴스에 연결](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/connecting_to_windows_instance.html#connect-rdp)을 참조하세요.

1. 관리자 권한으로 Windows PowerShell을 엽니다. 다음 명령을 사용하여 Windows 인스턴스에서 iSCSI를 활성화하고 iSCSI 서비스가 자동으로 시작되도록 구성합니다.

   ```
   PS C:\> Start-Service MSiSCSI 
   PS C:\> Set-Service -Name msiscsi -StartupType Automatic
   ```

1. Windows 인스턴스의 이니시에이터 이름을 검색합니다. NetApp ONTAP CLI를 사용하여 FSx for ONTAP 파일 시스템에 iSCSI를 구성하는 데 이 값을 사용합니다.

   ```
   PS C:\> (Get-InitiatorPort).NodeAddress
   ```

   시스템이 이니시에이터 포트로 응답합니다.

   ```
   iqn.1991-05.com.microsoft:ec2amaz-abc123d 
   ```

1. 클라이언트가 파일 서버 간에 자동으로 장애 조치하도록 하려면 Windows 인스턴스에 `Multipath-IO`(MPIO)를 설치해야 합니다. 다음 명령을 사용합니다.

   ```
   PS C:\> Install-WindowsFeature Multipath-IO
   ```

1. `Multipath-IO` 설치가 완료된 후 Windows 인스턴스를 다시 시작합니다. Windows 인스턴스를 열어 두고 다음 섹션에서 iSCSI LUN을 마운트하는 단계를 수행합니다.

## FSx for ONTAP 파일 시스템에 iSCSI 구성
<a name="configure-iscsi-on-ontap-win"></a>

1. ONTAP CLI에 액세스하려면 다음 명령을 실행하여 Amazon FSx for NetApp ONTAP 파일 시스템 또는 SVM의 관리 포트에 SSH 세션을 설정합니다. `management_endpoint_ip`를 파일 시스템의 관리 포트의 IP 주소로 바꿉니다.

   ```
   [~]$ ssh fsxadmin@management_endpoint_ip
   ```

   자세한 내용은 [ONTAP CLI를 사용한 파일 시스템 관리](managing-resources-ontap-apps.md#fsxadmin-ontap-cli) 단원을 참조하십시오.

1. ONTAP CLI [https://docs.netapp.com/us-en/ontap-cli-9141/lun-igroup-create.html](https://docs.netapp.com/us-en/ontap-cli-9141/lun-igroup-create.html)를 사용하여 이니시에이터 그룹을 만들거나 `igroup`를 만듭니다. 이니시에이터 그룹은 iSCSI LUN에 매핑되며 LUN에 액세스할 수 있는 이니시에이터(클라이언트)를 제어합니다. `host_initiator_name`을 이전 절차에서 검색한 Windows 호스트의 이니시에이터 이름으로 바꿉니다.

   ```
   ::> lun igroup create -vserver svm_name -igroup igroup_name -initiator host_initiator_name -protocol iscsi -ostype windows
   ```

   이 `igroup`에 매핑된 LUN을 여러 호스트에서 사용할 수 있도록 하려면 [https://docs.netapp.com/us-en/ontap-cli-9141/lun-create.html#parameters](https://docs.netapp.com/us-en/ontap-cli-9141/lun-create.html#parameters) ONTAP CLI 명령을 사용하여 쉼표로 구분된 여러 개의 초기자 이름을 지정할 수 있습니다.

1. [lun igroup show](https://docs.netapp.com/us-en/ontap-cli-9141/lun-igroup-show.html) ONTAP CLI 명령을 사용하여 `igroup`이 성공적으로 생성되었는지 확인합니다.

   ```
   ::> lun igroup show
   ```

   시스템이 다음 출력으로 응답합니다.

   ```
   Vserver    Igroup        Protocol OS Type  Initiators 
   ---------  ------------  -------- -------- ------------------------------------ 
   svm_name   igroup_name   iscsi    windows  iqn.1994-05.com.windows:abcdef12345
   ```

   `igroup`을 생성했으면 이제 LUN을 생성하여 `igroup`에 매핑할 준비가 되었습니다.

1. 이 단계에서는 이미 iSCSI LUN을 생성한 것으로 가정합니다. 아직 생성되지 않은 경우 단계별 지침으로 [iSCSI LUN 생성](create-iscsi-lun.md) 섹션을 참조하여 생성합니다.

   LUN에서 새 `igroup`으로의 LUN 매핑을 생성합니다.

   ```
   ::> lun mapping create -vserver svm_name -path /vol/vol_name/lun_name -igroup igroup_name -lun-id lun_id
   ```

1. 다음 명령을 사용하여 LUN이 생성되고 온라인 상태이며 매핑되었는지 확인합니다.

   ```
   ::> lun show -path /vol/vol_name/lun_name 
   Vserver     Path                            State   Mapped   Type     Size 
   ---------   ------------------------------- ------- -------- -------- -------- 
   svm_name    /vol/vol_name/lun_name          online  mapped   windows  10GB
   ```

   이제 Windows 인스턴스에 iSCSI 대상을 추가할 준비가 되었습니다.

1. 다음 명령을 사용하여 SVM의 `iscsi_1` 및 `iscsi_2` 인터페이스의 IP 주소를 검색합니다.

   ```
   ::> network interface show -vserver svm_name
   ```

   ```
               Logical    Status     Network            Current       Current Is 
   Vserver     Interface  Admin/Oper Address/Mask       Node          Port    Home 
   ----------- ---------- ---------- ------------------ ------------- ------- ---- 
   svm_name 
               iscsi_1    up/up      172.31.0.143/20    FSxId0123456789abcdef8-01 
                                                                      e0e     true 
               iscsi_2    up/up      172.31.21.81/20    FSxId0123456789abcdef8-02 
                                                                      e0e     true 
               nfs_smb_management_1 
                          up/up      198.19.250.177/20  FSxId0123456789abcdef8-01 
                                                                      e0e     true 
   3 entries were displayed.
   ```

   이 예제에서 `iscsi_1`의 IP 주소는 `172.31.0.143`이고 `iscsi_2`의 IP 주소는 `172.31.21.81`입니다.

## Windows 클라이언트에 iSCSI LUN 마운트
<a name="configure-iscsi-on-fsx"></a>

1. Windows 인스턴스에서 PowerShell 터미널을 관리자 권한으로 엽니다.

1. 다음 작업을 수행하는 `.ps1` 스크립트를 생성합니다.
   + 각 파일 시스템의 iSCSI 인터페이스에 연결합니다.
   + iSCSI용 MPIO를 추가하고 구성합니다.
   + 각 iSCSI 연결에 대해 8개의 세션을 설정하여 클라이언트가 iSCSI LUN에 최대 40Gbps(5,000MBps)의 총 처리량을 구동할 수 있도록 합니다. 8개의 세션이 있으면 단일 클라이언트가 전체 4,000MBps의 처리량 용량을 구동하여 최고 수준의 FSx for ONTAP FSx 처리량 용량을 보장할 수 있습니다. `RecommendedConnectionCount` 변수를 수정하여 선택적으로 세션 수(각 세션은 최대 625MBps의 처리량 제공)를 늘리거나 줄일 수 있습니다. 자세한 내용은 *Windows 인스턴스용 Amazon Elastic Compute Cloud 사용 설명서*의 [Amazon EC2 인스턴스 네트워크 대역폭](https://docs.aws.amazon.com/AWSEC2/latest/WindowsGuide/ec2-instance-network-bandwidth.html)을 참조하세요.

   다음 명령 세트를 파일에 복사하여 `.psl` 스크립트를 생성합니다.
   + `iscsi_1`과 `iscsi_2`를 이전 단계에서 검색한 IP 주소로 바꿉니다.
   + `ec2_ip`를 Windows 인스턴스의 IP 주소로 바꿉니다.

   ```
   Write-Host "Starting iSCSI connection setup..."
        $TargetPortalAddresses = @("iscsi_1","iscsi_2"); $LocaliSCSIAddress = "ec2_ip"
        $RecommendedConnectionCount = 8
   
        Foreach ($TargetPortalAddress in $TargetPortalAddresses) {
            New-IscsiTargetPortal -TargetPortalAddress $TargetPortalAddress -TargetPortalPortNumber 3260 -InitiatorPortalAddress $LocaliSCSIAddress
        }
   
        New-MSDSMSupportedHW -VendorId MSFT2005 -ProductId iSCSIBusType_0x9
   
        $currentMPIOSettings = Get-MPIOSetting
        if ($currentMPIOSettings.PathVerificationState -ne 'Enabled') {
            Write-Host "Setting MPIO path verification state to Enabled"; Set-MPIOSetting -NewPathVerificationState Enabled
        } else { Write-Host "MPIO path verification state already Enabled" }
   
        $portalConnectionCounts = @{}
        foreach ($TargetPortalAddress in $TargetPortalAddresses) { $portalConnectionCounts[$TargetPortalAddress] = 0 }
   
        $sessions = Get-IscsiSession
        if ($sessions) {
            foreach ($session in $sessions) {
                if ($session.IsConnected) {
                    $targetPortal = (Get-IscsiTargetPortal -iSCSISession $session).TargetPortalAddress
                    if ($portalConnectionCounts.ContainsKey($targetPortal)) { $portalConnectionCounts[$targetPortal]++ }
                }
            }
        }
   
        foreach ($TargetPortalAddress in $TargetPortalAddresses) {
            $existingCount = $portalConnectionCounts[$TargetPortalAddress]; $remainingConnections = $RecommendedConnectionCount - $existingCount
            Write-Host "Portal $TargetPortalAddress has $existingCount existing connections, $remainingConnections remaining (max recommended: $RecommendedConnectionCount)"
            if ($remainingConnections -gt 0) {
                Write-Host "Creating $remainingConnections connections for portal $TargetPortalAddress"
                1..$remainingConnections | ForEach-Object {
                    Get-IscsiTarget | Connect-IscsiTarget -IsMultipathEnabled $true -TargetPortalAddress $TargetPortalAddress -InitiatorPortalAddress $LocaliSCSIAddress -IsPersistent $true
                }
            } else { Write-Host "Maximum connections (8) reached for portal $TargetPortalAddress" }
        }
   
        Set-MSDSMGlobalDefaultLoadBalancePolicy -Policy RR
   ```

1. Windows Disk Management 애플리케이션을 시작합니다. Windows Run 대화 상자를 열고 `diskmgmt.msc`를 입력한 후 **Enter** 키를 누릅니다. Disk Management 애플리케이션이 열립니다.  
![\[Windows Disk Management 창이 표시됩니다.\]](http://docs.aws.amazon.com/ko_kr/fsx/latest/ONTAPGuide/images/DiskMgmt.png)

1. 할당되지 않은 디스크를 찾아봅니다. 이것이 iSCSI LUN입니다. 이 예제에서 Disk 1은 iSCSI 디스크입니다. 오프라인 상태입니다.  
![\[커서가 디스크 1 위에 배치될 때 표시되는 패널입니다.\]](http://docs.aws.amazon.com/ko_kr/fsx/latest/ONTAPGuide/images/GoOnline.png)

   **Disk 1**에 커서를 놓고 마우스 오른쪽 버튼을 클릭한 다음 **온라인**을 선택하여 볼륨을 온라인 상태로 전환합니다.
**참고**  
새 볼륨이 자동으로 온라인 상태가 되도록 Storage Area Network(SAN) 정책을 수정할 수 있습니다. 자세한 내용은 *Microsoft Windows Server 명령 참조*의 [SAN 정책](https://docs.microsoft.com/en-us/windows-server/administration/windows-commands/san)을 참조하세요.

1. 디스크를 초기화하려면 커서를 **Disk 1** 위에 놓고 마우스 오른쪽 버튼을 클릭한 다음 **초기화**를 선택합니다. 초기화 대화 상자가 표시됩니다. **확인**을 선택하여 디스크를 초기화합니다.

1. 일반 절차대로 디스크를 포맷합니다. 포맷이 완료되면 iSCSI 드라이브가 Windows 클라이언트에서 사용 가능한 드라이브로 표시됩니다.

## iSCSI 구성 검증
<a name="validate-iscsi-windows"></a>

iSCSI 설정이 제대로 구성되었는지 확인하는 스크립트가 제공되었습니다. 스크립트는 세션 수, 노드 배포 및 다중 경로 I/O(MPIO) 상태와 같은 파라미터를 검사합니다. 다음 작업은 스크립트를 설치하고 사용하는 방법을 설명합니다.<a name="validate-iscsi-windows-procedure"></a>

**iSCSI 구성을 검증하려면**

1. Windows PowerShell 창을 엽니다.

1. 다음 명령을 사용하여 스크립트를 다운로드합니다.

   ```
   PS C:\> Invoke-WebRequest "https://docs.aws.amazon.com/fsx/latest/ONTAPGuide/samples/CheckiSCSI.zip" -OutFile "CheckiSCSI.zip"
   ```

1. 다음 명령을 사용하여 zip 파일을 확장합니다.

   ```
   PS C:\> Expand-Archive -Path ".\CheckiSCSI.zip" -DestinationPath "./"
   ```

1. 다음 명령을 사용하여 스크립트를 실행하세요.

   ```
   PS C:\> ./CheckiSCSI.ps1
   ```

1. 출력을 검토하여 구성의 현재 상태를 이해합니다. 다음 예제에서는 성공적인 iSCSI 구성을 보여줍니다.

   ```
   PS C:\> ./CheckiSCSI.ps1
   
   This script checks the iSCSI configuration on the local instance.
   It will provide information about the number of connected sessions, connected file servers, and MPIO status.
                               
   MPIO is installed on this server.
   
   MPIO Load Balance Policy is set to Round Robin (RR).
   Initiator: 'iqn.1991-05.com.microsoft:ec2amaz-d2cebnb'
   to Target: 'iqn.1992-08.com.netapp:sn.13266b10e61411ee8bc0c76ad263d613:vs.3'
   has 16 total sessions (16 active, 0 non-active)
   spread across 2 node(s).
   MPIO: Yes
   ```

# Linux용 NVMe /TCP 프로비저닝
<a name="provision-nvme-linux"></a>

FSx for ONTAP는 비휘발성 Memory Express over TCP(NVMe/TCP) 블록 스토리지 프로토콜을 지원합니다. NVMe /TCP를 사용하면 ONTAP CLI를 사용하여 네임스페이스와 하위 시스템을 프로비저닝한 다음 네임스페이스를 하위 시스템에 매핑합니다. 이는 LUNs 프로비저닝하고 iSCSI의 이니시에이터 그룹(igroup)에 매핑하는 방식과 비슷합니다. NVMe /TCP 프로토콜은 [고가용성(HA) 페어](HA-pairs.md)가 6개 이하인 2세대 파일 시스템에서 사용할 수 있습니다.

**참고**  
FSx for ONTAP 파일 시스템은 iSCSI 및 NVMe/TCP 블록 스토리지 프로토콜 모두에 SVM의 iSCSI 엔드포인트를 사용합니다.

Amazon FSx for NetApp ONTAP에서 NVMe/TCP를 구성하는 세 가지 주요 단계는 다음 절차에서 다룹니다.

1. Linux 호스트에 NVMe 클라이언트를 설치하고 구성합니다.

1. 파일 시스템의 SVM에서 NVMe를 구성합니다.
   + NVMe 네임스페이스를 생성합니다.
   + NVMe 하위 시스템을 생성합니다.
   + 네임스페이스를 하위 시스템에 매핑합니다.
   + 클라이언트 NQN을 하위 시스템에 추가합니다.

1. Linux 클라이언트에 NVMe 디바이스를 탑재합니다.

## 시작하기 전 준비 사항
<a name="nvme-tcp-linux-byb"></a>

NVMe/TCP용 파일 시스템을 구성하는 프로세스를 시작하기 전에 다음 항목을 완료해야 합니다.
+ FSx for ONTAP 파일 시스템을 생성합니다. 자세한 내용은 [파일 시스템 만들기](creating-file-systems.md) 섹션을 참조하세요.
+ 파일 시스템과 동일한 VPC에서 Red Hat Enterprise Linux(RHEL) 9.3을 실행하는 EC2 인스턴스를 생성합니다. 이는 NVMe를 구성하고 Linux용 NVMe NVMe/TCP를 사용하여 파일 데이터에 액세스할 Linux 호스트입니다.

  이러한 절차의 범위를 넘어 호스트가 다른 VPC에 있는 경우, VPC 피어링 또는 AWS Transit Gateway를 사용하여 다른 VPC에 볼륨의 iSCSI 엔드포인트에 대한 액세스 권한을 부여할 수 있습니다. 자세한 내용은 [배포 VPC 외부에서 데이터 액세스](supported-fsx-clients.md#access-from-outside-deployment-vpc) 섹션을 참조하세요.
+ [Amazon VPC를 사용한 파일 시스템 액세스 제어](limit-access-security-groups.md)에 설명된 대로 인바운드 및 아웃바운드 트래픽을 허용하도록 Linux 호스트의 VPC 보안 그룹을 구성합니다.
+ ONTAP CLI에 액세스하는 데 사용할 `fsxadmin` 권한이 있는 ONTAP 사용자의 자격 증명을 가져옵니다. 자세한 내용은 [ONTAP 사용자 및 역할](roles-and-users.md) 섹션을 참조하세요.
+ NVMe용으로 구성하고 FSx for ONTAP 파일 시스템에 액세스하는 데 사용할 Linux 호스트는 동일한 VPC와 AWS 계정에 있습니다.
+ EC2 인스턴스는 파일 시스템의 기본 서브넷과 동일한 가용성 영역에 있는 것이 좋습니다.

EC2 인스턴스가 RHEL 9.3과 다른 Linux AMI를 실행하는 경우 이러한 절차 및 예제에 사용된 일부 유틸리티가 이미 설치되어 있을 수 있으며, 다른 명령을 사용하여 필요한 패키지를 설치할 수 있습니다. 패키지 설치 외에도 이 섹션에 사용된 명령은 다른 EC2 Linux AMI에도 유효합니다.

**Topics**
+ [시작하기 전 준비 사항](#nvme-tcp-linux-byb)
+ [Linux 호스트에 NVMe 설치 및 구성](#configure-nvme-on-rhel93)
+ [FSx for ONTAP 파일 시스템에서 NVMe 구성하기](#configure-nvme-on-svm)
+ [Linux 클라이언트에 NVMe 디바이스 탑재](#add-nvme-on-rhel93-host)

## Linux 호스트에 NVMe 설치 및 구성
<a name="configure-nvme-on-rhel93"></a>

**NVMe 클라이언트를 설치하려면**

1. SSH 클라이언트를 사용하여 Linux 인스턴스에 연결합니다. 자세한 내용은 [SSH를 사용하여 Linux 또는 macOS에서 Linux 인스턴스에 연결](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/connect-linux-inst-ssh.html)을 참조하세요.

1. 다음 명령을 사용하여 `nvme-cli`를 설치합니다.

   ```
   ~$ sudo yum install -y nvme-cli
   ```

1. 호스트에 `nvme-tcp` 모듈을 로드합니다.

   ```
   $ sudo modprobe nvme-tcp
   ```

1. 다음 명령을 사용하여 Linux 호스트의 NVMe 자격 이름(NQN)을 가져옵니다.

   ```
   $ cat /etc/nvme/hostnqn
   nqn.2014-08.org.nvmexpress:uuid:9ed5b327-b9fc-4cf5-97b3-1b5d986345d1
   ```

   다음 단계에서 사용할 응답을 기록합니다.

## FSx for ONTAP 파일 시스템에서 NVMe 구성하기
<a name="configure-nvme-on-svm"></a>

**파일 시스템에서 NVMe를 구성하려면**

NVMe 디바이스(들)를 생성하려는 FSx for ONTAP 파일 시스템의 NetApp ONTAP CLI에 연결합니다.

1. ONTAP CLI에 액세스하려면 다음 명령을 실행하여 Amazon FSx for NetApp ONTAP 파일 시스템 또는 SVM의 관리 포트에 SSH 세션을 설정합니다. `management_endpoint_ip`를 파일 시스템의 관리 포트의 IP 주소로 바꿉니다.

   ```
   [~]$ ssh fsxadmin@management_endpoint_ip
   ```

   자세한 내용은 [ONTAP CLI를 사용한 파일 시스템 관리](managing-resources-ontap-apps.md#fsxadmin-ontap-cli) 섹션을 참조하세요.

1. NVMe 인터페이스에 액세스하는 데 사용하는 새 볼륨을 SVM에 생성합니다.

   ```
   ::> vol create -vserver fsx -volume nvme_vol1 -aggregate aggr1 -size 1t
        [Job 597] Job succeeded: Successful
   ```

1. [https://docs.netapp.com/us-en/ontap-cli-9141/vserver-nvme-namespace-create.html](https://docs.netapp.com/us-en/ontap-cli-9141/vserver-nvme-namespace-create.html) NetApp ONTAP CLI 명령을 사용하여 NVMe 네임스페이스 `ns_1`를 생성합니다. 네임스페이스는 이니시에이터(클라이언트)에 매핑하고 NVMe 디바이스에 액세스할 수 있는 이니시에이터(클라이언트)를 제어합니다.

   ```
   ::> vserver nvme namespace create -vserver fsx -path /vol/nvme_vol1/ns_1 -size 100g -ostype linux
   Created a namespace of size 100GB (107374182400).
   ```

1. [https://docs.netapp.com/us-en/ontap-cli-9141/vserver-nvme-subsystem-create.html](https://docs.netapp.com/us-en/ontap-cli-9141/vserver-nvme-subsystem-create.html) NetApp ONTAP CLI 명령을 사용하여 NVMe 하위 시스템을 생성합니다.

   ```
   ~$ vserver nvme subsystem create -vserver fsx -subsystem sub_1 -ostype linux
   ```

1. 방금 생성한 하위 시스템에 네임스페이스를 매핑합니다.

   ```
   ::> vserver nvme subsystem map add -vserver fsx -subsystem sub_1 -path /vol/nvme_vol1/ns_1
   ```

1. 이전에 검색한 NQN을 사용하여 하위 시스템에 클라이언트를 추가합니다.

   ```
   ::> vserver nvme subsystem host add -subsystem sub_1 -host-nqn nqn.2014-08.org.nvmexpress:uuid:ec21b083-1860-d690-1f29-44528e4f4e0e -vserver fsx
   ```

   이 하위 시스템에 매핑된 장치를 여러 호스트에서 사용할 수 있게 하려면 쉼표로 구분된 목록에 여러 개의 개시자 이름을 지정할 수 있습니다. 자세한 내용은 NetApp ONTAP Docs의 [vserver nvme 하위 시스템 호스트 추가](https://docs.netapp.com/us-en/ontap-cli-9141/vserver-nvme-subsystem-host-add.html)를 참조하세요.

1. [https://docs.netapp.com/us-en/ontap-cli-9141/vserver-nvme-namespace-show.html](https://docs.netapp.com/us-en/ontap-cli-9141/vserver-nvme-namespace-show.html) 명령을 사용하여 네임스페이스가 존재하는지 확인합니다.

   ```
   ::> vserver nvme namespace show -vserver fsx -instance
   Vserver Name: fsx
               Namespace Path: /vol/nvme_vol1/ns_1
                         Size: 100GB
                    Size Used: 90.59GB
                      OS Type: linux
                      Comment: 
                   Block Size: 4KB
                        State: online
            Space Reservation: false
   Space Reservations Honored: false
                 Is Read Only: false
                Creation Time: 5/20/2024 17:03:08
               Namespace UUID: c51793c0-8840-4a77-903a-c869186e74e3
                     Vdisk ID: 80d42c6f00000000187cca9
         Restore Inaccessible: false
      Inconsistent Filesystem: false
          Inconsistent Blocks: false
                       NVFail: false
   Node Hosting the Namespace: FsxId062e9bb6e05143fcb-01
                  Volume Name: nvme_vol1
                   Qtree Name: 
             Mapped Subsystem: sub_1
               Subsystem UUID: db526ec7-16ca-11ef-a612-d320bd5b74a9               
                 Namespace ID: 00000001h
                 ANA Group ID: 00000001h
                 Vserver UUID: 656d410a-1460-11ef-a612-d320bd5b74a9
                   Vserver ID: 3
                  Volume MSID: 2161388655
                  Volume DSID: 1029
                    Aggregate: aggr1
               Aggregate UUID: cfa8e6ee-145f-11ef-a612-d320bd5b74a9
    Namespace Container State: online
           Autodelete Enabled: false
             Application UUID: -
                  Application: -
     Has Metadata Provisioned: true
     
   1 entries were displayed.
   ```

1. [https://docs.netapp.com/us-en/ontap-cli-9141/network-interface-show.html](https://docs.netapp.com/us-en/ontap-cli-9141/network-interface-show.html) 명령을 사용하여 NVMe 디바이스를 생성한 SVM의 블록 스토리지 인터페이스 주소를 검색합니다.

   ```
   ::> network interface show -vserver svm_name -data-protocol nvme-tcp
               Logical               Status     Network            Current                    Current Is 
   Vserver     Interface             Admin/Oper Address/Mask       Node                       Port    Home
   ----------- ----------            ---------- ------------------ -------------              ------- ----
   svm_name
               iscsi_1               up/up      172.31.16.19/20    FSxId0123456789abcdef8-01  e0e     true
               iscsi_2               up/up      172.31.26.134/20   FSxId0123456789abcdef8-02  e0e     true
   2 entries were displayed.
   ```
**참고**  
`iscsi_1` LIF는 iSCSI와 NVMe /TCP 모두에 사용됩니다.

   이 예제에서 iscsi\$11의 IP 주소는 172.31.16.19이고 iscsi\$12는 172.31.26.134입니다.

## Linux 클라이언트에 NVMe 디바이스 탑재
<a name="add-nvme-on-rhel93-host"></a>

Linux 클라이언트에 NVMe 디바이스를 탑재하는 프로세스는 세 단계로 구성됩니다.

1. NVMe 노드 검색

1. NVMe 디바이스 파티셔닝

1. 클라이언트에 NVMe 디바이스 탑재

이는 다음 절차에서 다룹니다.

**대상 NVMe 노드를 검색하려면**

1. Linux 클라이언트에서 다음 명령을 사용하여 대상 NVMe 노드를 검색합니다. *`iscsi_1_IP`*를 `iscsi_1`의 IP 주소로 바꾸고 클라이언트의 IP 주소는 *`client_IP`*로 바꿉니다.
**참고**  
`iscsi_1` 및 `iscsi_2` LIFs는 iSCSI 및 NVMe 스토리지 모두에 사용됩니다.

   ```
   ~$ sudo nvme discover -t tcp -w client_IP -a iscsi_1_IP
   ```

   ```
   Discovery Log Number of Records 4, Generation counter 11
   =====Discovery Log Entry 0======
   trtype:  tcp
   adrfam:  ipv4
   subtype: current discovery subsystem
   treq:    not specified
   portid:  0
   trsvcid: 8009
   subnqn:  nqn.1992-08.com.netapp:sn.656d410a146011efa612d320bd5b74a9:discovery
   traddr:  172.31.26.134
   eflags:  explicit discovery connections, duplicate discovery information
   sectype: none
   =====Discovery Log Entry 1======
   trtype:  tcp
   adrfam:  ipv4
   subtype: current discovery subsystem
   treq:    not specified
   portid:  1
   trsvcid: 8009
   subnqn:  nqn.1992-08.com.netapp:sn.656d410a146011efa612d320bd5b74a9:discovery
   traddr:  172.31.16.19
   eflags:  explicit discovery connections, duplicate discovery information
   sectype: none
   ```

1. (선택 사항) 파일 NVMe 디바이스로 Amazon EC2 단일 클라이언트 최대 5Gbps(\$1625MBps)보다 높은 처리량을 유도하려면 Linux 인스턴스용 Amazon Elastic Compute Cloud 사용 설명서의 Amazon [Amazon EC2 인스턴스 네트워크 대역폭](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-instance-network-bandwidth.html)에 설명된 절차에 따라 추가 세션을 설정합니다.

1. 컨트롤러 손실 시간 제한이 1800초 이상인 대상 이니시에이터에 로그인하고, 다시 *`iscsi_1_IP`*에는 `iscsi_1`의 IP 주소를, *`client_IP`*에는 클라이언트의 IP 주소를 사용합니다. NVMe 디바이스는 사용 가능한 디스크로 표시됩니다.

   ```
   ~$ sudo nvme connect-all -t tcp -w client_IP -a iscsi_1 -l 1800
   ```

1. 다음 명령을 사용하여 NVMe 스택이 여러 세션을 식별 및 병합하고 다중 라우팅을 구성했는지 확인합니다. 이 명령은 구성에 성공하면 `Y`를 반환합니다.

   ```
   ~$ cat /sys/module/nvme_core/parameters/multipath
   Y
   ```

1. 다음 명령을 사용하여 사용 가능한 모든 경로에 I/O를 분산하기 위해 각 ONTAP 네임스페이스에 대해 NVMe-oF 설정 `model`가 `NetApp ONTAP Controller`로 설정되고 로드 밸런싱 `iopolicy`가 `round-robin`로 설정되어 있는지 확인합니다.

   ```
   ~$ cat /sys/class/nvme-subsystem/nvme-subsys*/model
   Amazon Elastic Block Store              
   NetApp ONTAP Controller
   ~$ cat /sys/class/nvme-subsystem/nvme-subsys*/iopolicy
   numa
   round-robin
   ```

1. 다음 명령을 사용하여 네임스페이스가 생성되고 호스트에서 올바르게 검색되었는지 확인합니다.

   ```
   ~$ sudo nvme list
   Node                  Generic               SN                   Model                                    Namespace  Usage                      Format           FW Rev  
   --------------------- --------------------- -------------------- ---------------------------------------- ---------- -------------------------- ---------------- --------
   /dev/nvme0n1          /dev/ng0n1            vol05955547c003f0580 Amazon Elastic Block Store               0x1         25.77  GB /  25.77  GB    512   B +  0 B   1.0     
   /dev/nvme2n1          /dev/ng2n1            lWB12JWY/XLKAAAAAAAC NetApp ONTAP Controller                  0x1        107.37  GB / 107.37  GB      4 KiB +  0 B   FFFFFFFF
   ```

   출력의 새 디바이스는 `/dev/nvme2n1`입니다. 이 이름 지정 체계는 Linux 설치에 따라 다를 수 있습니다.

1. 각 경로의 컨트롤러 상태가 라이브이고 올바른 비대칭 네임스페이스 액세스(ANA) 다중 경로 상태가 있는지 확인합니다.

   ```
   ~$ nvme list-subsys /dev/nvme2n1
   nvme-subsys2 - NQN=nqn.1992-08.com.netapp:sn.656d410a146011efa612d320bd5b74a9:subsystem.rhel
                  hostnqn=nqn.2014-08.org.nvmexpress:uuid:ec2a70bf-3ab2-6cb0-f997-8730057ceb24
                  iopolicy=round-robin
   \
    +- nvme2 tcp traddr=172.31.26.134,trsvcid=4420,host_traddr=172.31.25.143,src_addr=172.31.25.143 live non-optimized
    +- nvme3 tcp traddr=172.31.16.19,trsvcid=4420,host_traddr=172.31.25.143,src_addr=172.31.25.143 live optimized
   ```

   이 예제에서는 NVMe 스택이 파일 시스템의 대체 LIF, `iscsi_2`, 172.31.26.134을 자동으로 검색했습니다.

1. NetApp 플러그인에 각 ONTAP 네임스페이스 디바이스에 대한 올바른 값이 표시되는지 확인합니다.

   ```
   ~$ sudo nvme netapp ontapdevices -o column
   Device           Vserver                   Namespace Path                                     NSID UUID                                   Size     
   ---------------- ------------------------- -------------------------------------------------- ---- -------------------------------------- ---------
   /dev/nvme2n1     fsx                       /vol/nvme_vol1/ns_1                                1    0441c609-3db1-4b0b-aa83-790d0d448ece   107.37GB
   ```

**디바이스를 분할하려면**

1. 다음 명령을 사용하여 device\$1name `nvme2n1`의 경로가 있는지 확인합니다.

   ```
   ~$ ls /dev/mapper/nvme2n1
   /dev/nvme2n1
   ```

1. `fdisk`를 사용하여 디스크를 파티셔닝합니다. 대화형 프롬프트가 나타날 것입니다. 표시된 순서대로 옵션을 입력합니다. 마지막 섹터보다 작은 값(이 예제에서는 `20971519`)을 사용하여 여러 파티션을 만들 수 있습니다.
**참고**  
`Last sector` 값은 NVMe 디바이스의 크기(이 예제에서는 100GiB)에 따라 달라집니다.

   ```
   ~$ sudo fdisk /dev/mapper/nvme2n1
   ```

   `fsdisk` 대화형 프롬프트가 시작됩니다.

   ```
   Welcome to fdisk (util-linux 2.37.4). 
   Changes will remain in memory only, until you decide to write them. 
   Be careful before using the write command. 
   
   Device does not contain a recognized partition table. 
   Created a new DOS disklabel with disk identifier 0x66595cb0. 
   
   Command (m for help): n
   Partition type 
      p primary (0 primary, 0 extended, 4 free) 
      e extended (container for logical partitions) 
   Select (default p): p
   Partition number (1-4, default 1): 1 
   First sector (256-26214399, default 256): 
   Last sector, +sectors or +size{K,M,G,T,P} (256-26214399, default 26214399): 20971519
                                       
   Created a new partition 1 of type 'Linux' and of size 100 GiB.
   Command (m for help): w
   The partition table has been altered.
   Calling ioctl() to re-read partition table. 
   Syncing disks.
   ```

   `w`를 입력하면 새 파티션 `/dev/nvme2n1`을 사용할 수 있게 됩니다. *partition\$1name*의 형식은 *<device\$1name>**<partition\$1number>*입니다. `1`은 이전 단계의 `fdisk` 명령에 사용된 파티션 번호입니다.

1. `/dev/nvme2n1`을 경로로 사용하여 파일 시스템을 생성합니다.

   ```
   ~$ sudo mkfs.ext4 /dev/nvme2n1
   ```

   시스템이 다음 출력으로 응답합니다.

   ```
   mke2fs 1.46.5 (30-Dec-2021)
   Found a dos partition table in /dev/nvme2n1
   Proceed anyway? (y,N) y
   Creating filesystem with 26214400 4k blocks and 6553600 inodes
   Filesystem UUID: 372fb2fd-ae0e-4e74-ac06-3eb3eabd55fb
   Superblock backups stored on blocks: 
       32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
       4096000, 7962624, 11239424, 20480000, 23887872
   
   Allocating group tables: done                            
   Writing inode tables: done                            
   Creating journal (131072 blocks): done
   Writing superblocks and filesystem accounting information: done
   ```

**Linux 클라이언트에 NVMe 장치를 탑재하려면 다음과 같이 하세요.**

1. Linux 인스턴스에서 디렉터리 *directory\$1path*를 파일 시스템의 탑재 지점으로 만듭니다.

   ```
   ~$ sudo mkdir /directory_path/mount_point
   ```

1. 다음 명령을 사용하여 파일 시스템을 마운트합니다.

   ```
   ~$ sudo mount -t ext4 /dev/nvme2n1 /directory_path/mount_point
   ```

1. (선택 사항) 특정 사용자에게 탑재 디렉터리의 소유권을 부여하려면 *`username`*를 소유자의 사용자 아이디로 바꿉니다.

   ```
   ~$ sudo chown username:username /directory_path/mount_point
   ```

1. (선택 사항) 파일 시스템에서 데이터를 읽고 쓸 수 있는지 확인합니다.

   ```
   ~$ echo "Hello world!" > /directory_path/mount_point/HelloWorld.txt
   ~$ cat directory_path/HelloWorld.txt
   Hello world!
   ```

   Linux 클라이언트에 NVMe 장치를 성공적으로 생성하고 탑재했습니다.

# Amazon S3 액세스 포인트를 통해 데이터 액세스
<a name="accessing-data-via-s3-access-points"></a>

또한 S3 액세스 포인트를 사용하여 S3에 있는 것처럼 Amazon FSx 파일 시스템에 저장된 파일 데이터에 액세스할 수 S3있으므로 애플리케이션 변경이나 파일 스토리지 외부로 데이터 이동 없이 S3로 작업하는 애플리케이션 및 서비스와 함께 사용할 수 있습니다. Amazon S3 액세스 포인트는 S3 버킷 또는 FSx for ONTAP 및 FSx for OpenZFS 볼륨에 연결하는 S3 엔드포인트입니다. Amazon S3 액세스 포인트는 S3에서 작동하는 모든 애플리케이션 또는 AWS 서비스에 대한 데이터 액세스 관리를 간소화합니다. S3 액세스 포인트를 사용하면 데이터 레이크, 미디어 아카이브, 사용자 생성 콘텐츠를 포함한 공유 데이터 세트를 보유한 고객이 각각에 맞게 사용자 지정된 이름과 권한이 있는 개별화된 액세스 포인트를 생성하여 수백 개의 애플리케이션, 팀 또는 개인에 대한 데이터 액세스를 쉽게 제어하고 확장할 수 있습니다.

Amazon FSx for NetApp ONTAP 볼륨에 연결된 S3 액세스 포인트는 Amazon S3 엔드포인트에 대한 S3 객체 작업(예: , 및 `ListObjectsV2`)을 사용하여 파일 데이터에 대한 읽기 `GetObject` `PutObject`및 쓰기 액세스를 지원합니다.

FSx for ONTAP 파일 시스템에 연결된 각 S3 액세스 포인트에는 AWS Identity and Access Management (IAM) 액세스 포인트 정책과 액세스 포인트를 통해 이루어진 모든 요청을 승인하는 데 사용되는 연결된 UNIX 또는 Windows 파일 시스템 사용자가 있습니다. 각 요청에 대해 S3는 먼저 사용자, 액세스 포인트, S3 VPC 엔드포인트 및 서비스 제어 정책에 대한 정책을 포함하여 모든 관련 정책을 평가하여 요청을 승인합니다. 요청이 S3에 의해 승인되면 요청은 파일 시스템에 의해 승인됩니다. 파일 시스템은 S3 액세스 포인트와 연결된 파일 시스템 사용자에게 파일 시스템의 데이터에 대한 액세스 권한이 있는지 여부를 평가합니다. Virtual Private Cloud(VPC)의 요청만 수락하도록 액세스 포인트를 구성하여 프라이빗 네트워크에 대한 Amazon S3 데이터 액세스를 제한할 수 있습니다. Amazon S3는 FSx for ONTAP 볼륨에 연결된 모든 액세스 포인트에 대해 기본적으로 퍼블릭 액세스 차단을 적용하며이 설정을 수정하거나 비활성화할 수 없습니다.

Amazon FSx 콘솔, CLI 및 API를 사용하여 [ S3 액세스 포인트를 생성하고 FSx for ONTAP 볼륨에 연결합니다](fsxn-creating-access-points.md). FSx 액세스 포인트를 사용하면 S3 API를 사용하여 파일 데이터에 액세스할 수 있지만 데이터는 FSx for ONTAP 파일 시스템에 계속 상주하며 NFS 및 SMB 프로토콜을 계속 사용하여 S3 API와 함께 데이터에 액세스할 수 있습니다.

FSx for ONTAP 파일 시스템의 Amazon S3 액세스 포인트는 S3 버킷 액세스와 일치하는 수십 밀리초 범위의 지연 시간을 제공합니다. S3 API를 통해 Amazon FSx 파일 시스템으로 구동할 수 있는 초당 처리량 및 요청은 파일 시스템의 프로비저닝된 처리량에 따라 달라집니다. 파일 시스템 성능 기능에 대한 자세한 내용은 섹션을 참조하세요. [Amazon FSx for NetApp ONTAP 성능성능](performance.md) 

**Topics**
+ [AWS 리전 FSx for ONTAP용 Amazon S3 액세스 포인트 사용](#access-points-for-fsx-ontap-supported-regions)
+ [액세스 포인트 이름 지정 규칙, 제한 및 한계](access-point-for-fsxn-restrictions-limitations-naming-rules.md)
+ [ARNs, 액세스 포인트 별칭 또는 virtual-hosted-style URIs를 사용하여 액세스 포인트 참조](referencing-access-points-for-fsxn.md)
+ [액세스 포인트 호환성](access-points-for-fsxn-object-api-support.md)
+ [액세스 포인트 액세스 관리](s3-ap-manage-access-fsxn.md)
+ [액세스 포인트 생성](fsxn-creating-access-points.md)
+ [Amazon S3 액세스 포인트 관리](access-points-for-fsxn-manage.md)
+ [액세스 포인트 사용](access-points-for-fsxn-usage-examples.md)
+ [S3 액세스 포인트 문제 해결](troubleshooting-access-points-for-fsxn.md)

## AWS 리전 FSx for ONTAP용 Amazon S3 액세스 포인트 사용
<a name="access-points-for-fsx-ontap-supported-regions"></a>

FSx for ONTAP에 대한 Amazon S3 액세스 포인트는 AWS 리전아프리카(케이프타운), 아시아 태평양(홍콩, 하이데라바드, 자카르타, 멜버른, 뭄바이, 오사카, 서울, 싱가포르, 시드니, 도쿄), 캐나다(중부), 캐나다 서부(캘거리), 유럽(프랑크푸르트, 아일랜드, 런던, 밀라노, 파리, 스페인, 스톡홀름, 취리히), 이스라엘(텔아비브), 중동(바레인, UAE), 남아메리카(상파울루), 미국 동부(버지니아 북부, 오하이오) 및 미국 서부(캘리포니아 북부, 오레곤)에서 지원됩니다.

# 액세스 포인트 이름 지정 규칙, 제한 및 한계
<a name="access-point-for-fsxn-restrictions-limitations-naming-rules"></a>

S3 액세스 포인트를 생성할 때 해당 액세스 포인트의 이름을 선택합니다. 다음 주제에서는 S3 액세스 포인트 이름 지정 규칙, 제한 및 제한에 대한 정보를 제공합니다.

**Topics**
+ [액세스 포인트 이름 지정 규칙](#access-points-for-fsxn-naming-rules)
+ [액세스 포인트 규제 및 제한](#access-points-for-fsxn-restrictions-limitations)

## 액세스 포인트 이름 지정 규칙
<a name="access-points-for-fsxn-naming-rules"></a>

S3 액세스 포인트를 생성할 때 해당 이름을 선택합니다. 액세스 포인트 이름은 AWS 계정 또는 간에 고유할 필요가 없습니다 AWS 리전. 동일한에서 동일한 이름의 액세스 포인트를 만들 AWS 계정 수도 있고, AWS 리전 두에서 동일한 액세스 포인트 이름을 사용할 수도 AWS 계정 있습니다. 그러나 단일 내에서 이름이 동일한 액세스 포인트 2개가 없을 AWS 리전 AWS 계정 수 있습니다.

S3 액세스 포인트 이름은 액세스 포인트 별칭용으로 `-ext-s3alias`예약된 접미사 로 끝날 수 없습니다. 액세스 포인트 이름 지정 규칙의 전체 목록은 [ Amazon Simple Storage Service 사용 설명서의 Amazon S3 액세스 포인트의 이름 지정 규칙을](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points-restrictions-limitations-naming-rules.html#access-points-names) 참조하세요. ** 

## 액세스 포인트 규제 및 제한
<a name="access-points-for-fsxn-restrictions-limitations"></a>

FSx for ONTAP 볼륨에 연결된 S3 액세스 포인트에는 다음과 같은 제한이 있으며, 이는 S3 버킷에 연결된 액세스 포인트에는 적용되지 않습니다.
+ 연결하려는 FSx for ONTAP 볼륨 AWS 리전 과 동일한 에서만 S3 액세스 포인트를 생성할 수 있습니다.
+ 동일한가 FSx for ONTAP 파일 시스템과 S3 액세스 포인트를 소유해야 AWS 계정 합니다. 소유한 FSx for ONTAP 볼륨에 연결된 S3 액세스 포인트만 생성할 수 있습니다. 다른이 소유한 볼륨에 연결된 S3 액세스 포인트는 생성할 수 없습니다 AWS 계정.
+ NetApp ONTAP 버전 9.17.1 이상을 실행하는 FSx for ONTAP 파일 시스템에만 S3 액세스 포인트를 생성하고 연결할 수 있습니다.

모든 액세스 포인트 제한 및 제한의 전체 목록은 *Amazon Simple Storage Service 사용 설명서*의 [액세스 포인트에 대한 제한 및 제한을 참조하세요](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points-restrictions-limitations-naming-rules.html).

# ARNs, 액세스 포인트 별칭 또는 virtual-hosted-style URIs를 사용하여 액세스 포인트 참조
<a name="referencing-access-points-for-fsxn"></a>

FSx for ONTAP 볼륨에 연결된 액세스 포인트를 생성한 후 AWS CLI 및 S3 API와 S3-compatible AWS 및 타사 서비스 및 애플리케이션을 통해 데이터에 액세스할 수 있습니다. AWS 서비스 또는 애플리케이션의 액세스 포인트를 참조할 때 Amazon 리소스 이름(ARN), 액세스 포인트 별칭 또는 가상 호스팅 스타일 URI를 사용할 수 있습니다.

**Topics**
+ [액세스 포인트 ARN](#access-point-arns)
+ [액세스 포인트 별칭](#access-point-aliases)
+ [가상 호스팅 방식 URI](#virtual-hosted-style-uri)

## 액세스 포인트 ARN
<a name="access-point-arns"></a>

액세스 포인트에 Amazon 리소스 이름(ARN)이 있습니다. 액세스 포인트 ARNs은 S3 버킷 ARNs과 유사하지만 명시적으로 입력되고 액세스 포인트의 AWS 리전 및 액세스 포인트 소유자의 AWS 계정 ID를 인코딩합니다. ARN에 대한 자세한 내용은 *AWS Identity and Access Management 사용 설명서*의 [Amazon AWS 리소스 이름(ARNs)으로 리소스 식별](https://docs.aws.amazon.com/IAM/latest/UserGuide/reference-arns.html)을 참조하세요.

액세스 포인트 ARNs 형식은 다음과 같습니다.

```
arn:aws::s3:region:account-id:accesspoint/resource
```

`arn:aws:s3:us-west-2:777777777777:accesspoint/test`는 *us-west-2* 리전의 계정 777777777777에서 소유한 *test*라는 액세스 포인트를 나타냅니다.

액세스 포인트를 통해 액세스되는 객체 및 파일의 ARNs은 다음 형식을 사용합니다.

```
arn:aws::s3:region:account-id:accesspoint/access-point-name/object/resource
```

`arn:aws:s3:us-west-2:111122223333:accesspoint/test/object/lions.jpg`는 *us-west-2* 리전의 계정 111122223333에서 소유한 *test*라는 액세스 포인트를 통해 액세스하는 *lions.jpg* 파일을 나타냅니다.

액세스 포인트 ARNs에 대한 자세한 내용은 *Amazon Simple Storage Service 사용 설명서*의 [액세스 포인트 ARNs](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points-naming.html#access-points-arns)을 참조하세요.

## 액세스 포인트 별칭
<a name="access-point-aliases"></a>

액세스 포인트를 생성하면 Amazon S3는 S3 버킷 이름을 사용하여 데이터에 액세스할 수 있는 모든 곳에서 사용할 수 있는 액세스 포인트 별칭을 자동으로 생성합니다.

액세스 포인트 별칭은 변경할 수 없습니다. FSx for ONTAP 볼륨에 연결된 액세스 포인트의 경우 액세스 포인트 별칭은 다음 부분으로 구성됩니다.

```
access point prefix-metadata-ext-s3alias
```

다음은 FSx for ONTAP 볼륨에 연결된 S3 액세스 포인트의 ARN 및 액세스 포인트 `describe-s3-access-point-attachments` 별칭으로, FSx CLI 명령에 대한 응답의 일부로 반환됩니다. 이 예제의 액세스 포인트 이름은 입니다`my-ontap-ap`.

```
...
        "S3AccessPoint": {
            "ResourceARN": "arn:aws:s3:us-east-1:111122223333:accesspoint/my-ontap-ap",
            "Alias": "my-ontap-ap-aqfqprnstn7aefdfbarligizwgyfouse1a-ext-s3alias",
...
```

**참고**  
접미사는 `-ext-s3alias` FSx for ONTAP 볼륨에 연결된 S3 액세스 포인트의 별칭에 예약되어 있으며 액세스 포인트 이름에 사용할 수 없습니다.

일부 Amazon S3 S3 액세스 포인트 ARN 대신 액세스 포인트 별칭을 사용할 수 있습니다. 지원되는 작업 목록은 섹션을 참조하세요[액세스 포인트 호환성](access-points-for-fsxn-object-api-support.md).

액세스 포인트 별칭 제한의 전체 세트는 *Amazon Simple Storage Service 사용 설명서*의 [액세스 포인트 별칭 제한을 참조하세요](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points-naming.html#access-points-alias).

## 가상 호스팅 방식 URI
<a name="virtual-hosted-style-uri"></a>

액세스 포인트는 가상 호스트 스타일의 주소 지정만 지원합니다. 가상 호스팅 방식 URI에서 액세스 포인트 이름 AWS 계정및 AWS 리전 는 URL에 있는 도메인 이름의 일부입니다. FSx for ONTAP 볼륨에 연결된 액세스 포인트의 S3 URI를 보려면 액세스 포인트 세부 정보 페이지의 **S3 액세스 포인트 세부 정보**에서 **S3 액세스 포인트에 대해 나열된 액세스 포인트** 이름을 선택합니다. 그러면 Amazon S3 콘솔의 액세스 포인트 세부 정보 페이지로 이동합니다. **속성**에서 **S3 URI**를 찾을 수 있습니다.

자세한 내용은 *Amazon Simple Storage Service 사용 설명서*의 [가상 호스팅 방식 URI](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points-naming.html#accessing-a-bucket-through-s3-access-point)를 참조하세요.

# 액세스 포인트 호환성
<a name="access-points-for-fsxn-object-api-support"></a>

액세스 포인트를 사용하여 데이터 액세스를 위해 다음 Amazon S3 APIs를 사용하여 FSx for ONTAP 볼륨에 저장된 데이터에 액세스할 수 있습니다. 아래 나열된 모든 작업은 액세스 포인트 ARN 또는 액세스 포인트 별칭을 수락할 수 있습니다.

다음 표는 Amazon S3 작업 중 일부와 액세스 포인트와의 호환 여부를 나열한 목록입니다. 이 표에는 FSx for ONTAP 볼륨을 데이터 소스로 사용하여 액세스 포인트에서 지원하는 작업이 나와 있습니다.


| S3 작업 | FSx for ONTAP 볼륨에 연결된 액세스 포인트 | 
| --- | --- | 
|  `[AbortMultipartUpload](https://docs.aws.amazon.com/AmazonS3/latest/API/API_AbortMultipartUpload.html)`  |  지원됨  | 
|  `[CompleteMultipartUpload](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CompleteMultipartUpload.html)`  |  지원됨  | 
|  `[CopyObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CopyObject.html)`(동일한 리전 사본만 해당)  |  소스와 대상이 동일한 액세스 포인트 내에 있는 경우 지원됨  | 
|  `[CreateMultipartUpload](https://docs.aws.amazon.com/AmazonS3/latest/API/API_CreateMultipartUpload.html)`  |  지원됨  | 
|  `[DeleteObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteObject.html)`  |  지원됨  | 
|  `[DeleteObjects](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteObjects.html)`  |  지원됨  | 
|  `[DeleteObjectTagging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteObjectTagging.html)`  |  지원됨  | 
|  `[GetBucketAcl](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketAcl.html)`  |  지원되지 않음  | 
|  `[GetBucketCors](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketCors.html)`  |  지원되지 않음  | 
|  `[GetBucketLocation](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketLocation.html)`  |  지원됨  | 
|  `[GetBucketNotificationConfiguration](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketNotificationConfiguration.html)`  |  지원되지 않음  | 
|  `[GetBucketPolicy](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetBucketPolicy.html)`  |  지원되지 않음  | 
|  `[GetObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html)`  |  지원됨  | 
|  `[GetObjectAcl](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectAcl.html)`  |  지원되지 않음  | 
|  `[GetObjectAttributes](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectAttributes.html)`  |  지원됨  | 
|  `[GetObjectLegalHold](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectLegalHold.html)`  |  지원되지 않음  | 
|  `[GetObjectRetention](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectRetention.html)`  |  지원되지 않음  | 
|  `[GetObjectTagging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObjectTagging.html)`  |  지원  | 
|  `[HeadBucket](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadBucket.html)`  |  지원됨  | 
|  `[HeadObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_HeadObject.html)`  |  지원됨  | 
|  `[ListMultipartUploads](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListMultipartUploads.html)`  |  지원됨  | 
|  `[ListObjects](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjects.html)`  |  지원됨  | 
|  `[ListObjectsV2](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html)`  |  지원됨  | 
|  `[ListObjectVersions](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectVersions.html)`  |  지원되지 않음  | 
|  `[ListParts](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListParts.html)`  |  지원됨  | 
|  `[Presign](https://docs.aws.amazon.com/AmazonS3/latest/API/sigv4-query-string-auth.html)`  |  지원되지 않음  | 
|  `[PutObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html)`  |  지원됨  | 
|  `[PutObjectAcl](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectAcl.html)`  |  지원되지 않음  | 
|  `[PutObjectLegalHold](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectLegalHold.html)`  |  지원되지 않음  | 
|  `[PutObjectRetention](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectRetention.html)`  |  지원되지 않음  | 
|  `[PutObjectTagging](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html)`  |  지원됨  | 
|  `[RestoreObject](https://docs.aws.amazon.com/AmazonS3/latest/API/API_RestoreObject.html)`  |  지원되지 않음  | 
|  `[UploadPart](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPart.html)`  |  지원됨  | 
|  `[UploadPartCopy](https://docs.aws.amazon.com/AmazonS3/latest/API/API_UploadPartCopy.html)`(동일한 리전 사본만 해당)  |  소스와 대상이 동일한 액세스 포인트 내에 있는 경우 지원됨  | 

Amazon S3 작업 사용에 대한 제한 사항은 다음과 같습니다.
+ 업로드의 최대 객체 크기는 5GB이지만 그보다 큰 객체를 다운로드할 수 있습니다.
+ `FSX_ONTAP`는 유일하게 지원되는 스토리지 클래스입니다.
+ SSE-FSX는 유일하게 지원되는 서버 측 암호화 모드입니다.
+ 다음 Amazon S3 기능은 지원되지 않습니다. 이외의 액세스 제어 목록(ACLs), 요청자 지불`bucket-owner-full-control`, 객체 버전 관리, 객체 잠금, 객체 수명 주기, 정적 웹 사이트 호스팅(예: 웹 사이트 리디렉션), 멀티 팩터 인증(MFA), 조건부 쓰기

액세스 포인트를 사용하여 파일 데이터에 대한 데이터 액세스 작업을 수행하는 예제는 섹션을 참조하세요[액세스 포인트 사용](access-points-for-fsxn-usage-examples.md).

**객체 ETag**  
개체 태그는 객체의 해시입니다. ETag는 객체의 콘텐츠에 대한 변경 사항만 반영하고 메타데이터에 대한 변경을 반영하지 않습니다. ETag는 객체 데이터의 MD5 다이제스트가 아닙니다.

**객체 체크섬**  
체크섬 값을 사용하여 업로드하는 데이터의 무결성을 확인할 수 있습니다. 데이터를 업로드하고 체크섬 알고리즘을 지정하면 AWS SDK는 선택한 체크섬 알고리즘을 사용하여 데이터 전송 전에 체크섬 값을 계산합니다. 그런 다음 Amazon S3는 데이터의 체크섬을 독립적으로 계산하고 제공된 체크섬 값과 비교하여 검증합니다. 객체는 Amazon S3로 전송하는 동안 데이터 무결성이 유지되었는지 확인한 후에만 수락됩니다. Amazon S3 범용 버킷의 객체에 대한 체크섬과 달리 체크섬 값은 FSx for NetApp ONTAP 볼륨에 객체 메타데이터 및 객체 자체로 저장되지 않습니다. 즉, 체크섬 값은 응답에 반환되지 않으며 다운로드 시 객체 무결성을 확인하는 데 사용되지 않습니다.

**Amazon FSx를 사용한 서버 측 암호화(SSE-FSX)**  
모든 Amazon FSx 파일 시스템에는 기본적으로 암호화가 구성되어 있으며를 사용하여 관리되는 키로 저장 시 암호화됩니다 AWS Key Management Service. 데이터를 파일 시스템에 쓰고 읽을 때 파일 시스템에서 데이터가 자동으로 암호화되고 해독됩니다. 이러한 프로세스는 Amazon FSx에서 투명하게 처리됩니다.

**멀티파트 업로드**  
멀티파트 업로드를 사용하면 단일 객체를 여러 부분의 집합으로 업로드할 수 있습니다. 각 부분은 객체 데이터의 연속적인 부분입니다. 이러한 객체 파트는 독립적으로 그리고 임의의 순서로 업로드할 수 있습니다. FSx for ONTAP에서 S3 액세스 포인트를 사용할 때 멀티파트 업로드에는 다음과 같은 고려 사항이 있습니다.
+ 진행 중인 멀티파트 업로드(즉, 불완전한 업로드)와 관련된 부분은 FSx for ONTAP 볼륨 백업에 포함되지 않습니다.
+ 진행 중인 멀티파트 업로드(즉, 불완전한 업로드) 파트와 연결된 사용된 스토리지는 대상 볼륨의 `StorageUsed` 스토리지 용량 CloudWatch 지표에는 반영되지 않지만 상위 파일 시스템의 `StorageUsed` 스토리지 용량 CloudWatch 지표에는 반영됩니다.
+ 멀티파트 업로드 작업이 완료되면 연결된 파트 메타데이터가 더 이상 객체와 함께 저장되지 않습니다. 즉,를 사용하여 객체 부분 metdata를 검색`GetObjectAttributes`하거나 읽는 객체의 부분 번호로 객체의 단일 부분을 다운로드할 수 없습니다.

**액세스 제어 목록(ACL)**  
Amazon S3 ACL(액세스 제어 목록)로 버킷과 객체에 대한 액세스를 관리합니다. FSx용 S3 액세스 포인트는 `bucket-owner-full-control` ACL 값만 지원합니다. 다른 ACL 값을 사용하면 `InvalidArgument` 예외가 발생합니다.

# 액세스 포인트 액세스 관리
<a name="s3-ap-manage-access-fsxn"></a>

해당 액세스 포인트를 사용하여 이루어진 모든 요청에 대해 S3가 적용하는 고유한 권한 및 네트워크 제어를 사용하여 각 S3 액세스 포인트를 구성할 수 있습니다. S3 액세스 포인트는 리소스, 사용자 또는 기타 조건별로 액세스 포인트 사용을 제어하는 데 사용할 수 있는 AWS Identity and Access Management (IAM) 리소스 정책을 지원합니다. 애플리케이션 또는 사용자가 액세스 포인트를 통해 파일에 액세스하려면 액세스 포인트와 기본 볼륨 모두에서 요청을 허용해야 합니다. 자세한 내용은 [IAM 액세스 포인트 정책](#access-points-for-fsxn-policies) 단원을 참조하십시오.

FSx for ONTAP용 Amazon S3 액세스 포인트는 AWS IAM 권한과 파일 시스템 수준 권한을 결합하는 이중 계층 권한 부여 모델을 사용합니다. 이 접근 방식을 사용하면 AWS 서비스 수준과 기본 파일 시스템 수준 모두에서 데이터 액세스 요청이 제대로 승인됩니다.

애플리케이션 또는 사용자가 액세스 포인트를 통해 데이터에 성공적으로 액세스하려면 S3 액세스 포인트 정책과 기본 FSx for ONTAP 볼륨 모두에서 요청을 허용해야 합니다.

**Topics**
+ [파일 시스템 사용자 자격 증명 및 권한 부여](#fsxn-file-system-user-identity)
+ [S3 API 요청 권한 부여](#access-points-for-fsxn-s3-iam-auth)
+ [S3 Block Public Access](#access-points-for-fsxn-bpa)
+ [IAM 액세스 포인트 정책](#access-points-for-fsxn-policies)

## 파일 시스템 사용자 자격 증명 및 권한 부여
<a name="fsxn-file-system-user-identity"></a>

FSx for ONTAP 볼륨에 대한 S3 액세스 포인트를 생성할 때 해당 액세스 포인트를 통해 이루어진 모든 파일 시스템 요청을 승인하는 데 사용할 파일 시스템 자격 증명을 지정합니다. 이 파일 시스템 자격 증명은 파일 시스템의 권한 모델에 따라 기본 파일 및 디렉터리에 부여되는 액세스 수준을 결정합니다. 파일 시스템 사용자는 기본 Amazon FSx 파일 시스템의 사용자 계정입니다. 파일 시스템 사용자에게 *읽기 전용* 액세스 권한이 있는 경우 액세스 포인트를 사용하여 수행된 읽기 요청만 승인되고 쓰기 요청은 차단됩니다. 파일 시스템 사용자에게 읽기-쓰기 액세스 권한이 있는 경우 액세스 포인트를 사용하여 만든 연결된 볼륨에 대한 읽기 및 쓰기 요청이 모두 승인됩니다.

파일 시스템 자격 증명은 다음 두 가지 유형 중 하나일 수 있습니다.
+ **UNIX 자격** 증명 - UNIX 보안 스타일로 볼륨에 액세스할 때 UNIX 자격 증명(사용자 이름) 사용
+ **Windows 자격 증명** - NTFS 보안 스타일로 볼륨에 액세스할 때 Windows 자격 증명(도메인 및 사용자 이름)을 사용합니다.

UNIX 또는 Windows 자격 증명을 지정하면 액세스 포인트를 통해 수행되는 모든 S3 API 작업이 파일 시스템에 대한 해당 사용자의 권한을 사용하여 승인됩니다.

액세스 포인트와 연결하는 파일 시스템 자격 증명에 따라 파일 및 디렉터리에 대한 액세스 수준이 결정됩니다. 예를 들어 액세스 포인트를 일반적으로 파일 시스템에 대한 전체 파일 액세스 권한이 있는 루트 UNIX 자격 증명(UID 0)과 연결하면 모든 파일 작업이 승인됩니다. 반대로 액세스 포인트를 제한된 사용자 자격 증명과 연결하면 파일 시스템의 권한 모델에 따라 해당 사용자가 액세스할 수 있는 것으로 파일 작업이 제한됩니다.

UNIX 보안 스타일의 볼륨에는 UNIX 파일 시스템 ID 유형을 사용하고 NTFS 보안 스타일의 볼륨에는 Windows ID 유형을 사용해야 합니다. 이렇게 정렬하면 권한 부여 모델이 볼륨의 보안 구성과 일치하게 됩니다.

UNIX 보안 스타일 볼륨의 경우 파일 시스템은 모드 비트 또는 NFSv4 ACLs을 사용하여 액세스를 제어합니다. NTFS 보안 스타일 볼륨의 경우 파일 시스템은 Windows ACLs을 사용하여 액세스를 제어합니다.

**중요**  
S3 액세스 포인트를 FSx for ONTAP 볼륨에 연결해도 NFS 또는 SMB를 통해 볼륨에 직접 액세스할 때 볼륨의 동작은 변경되지 않습니다. 볼륨에 대한 모든 기존 작업은 이전과 같이 계속 작동합니다. S3 액세스 포인트 정책에 포함하는 제한은 액세스 포인트를 사용하여 이루어진 요청에만 적용됩니다.

## S3 API 요청 권한 부여
<a name="access-points-for-fsxn-s3-iam-auth"></a>

FSx for NetApp ONTAP 볼륨에 연결된 액세스 포인트를 통해 S3 API 요청을 수행하면 Amazon S3는 액세스 포인트의 IAM 리소스 정책을 기준으로 호출 보안 주체의 IAM 권한을 평가합니다. IAM 보안 주체 호출자는 자격 증명 기반 정책을 통해 부여된 필수 권한이 있어야 하며 액세스 포인트의 리소스 정책도 요청된 작업을 허용해야 합니다.

Amazon S3는 사용자 정책, 액세스 포인트 정책, VPC 엔드포인트 정책 및 서비스 제어 정책을 포함한 모든 관련 정책을 평가하여 요청을 승인할지 여부를 결정합니다.

특정 Virtual Private Cloud(VPC)의 요청만 수락하여 데이터 액세스를 제한하도록 S3 액세스 포인트를 구성할 수도 있습니다. 자세한 내용은 [가상 프라이빗 클라우드(VPC)로 제한된 액세스 포인트 생성](access-points-for-fsxn-vpc.md) 단원을 참조하십시오.

## S3 Block Public Access
<a name="access-points-for-fsxn-bpa"></a>

FSx for ONTAP 볼륨에 연결된 Amazon S3 액세스 포인트는 퍼블릭 액세스 차단이 활성화된 상태로 자동으로 구성되며, 변경할 수 없습니다.

## IAM 액세스 포인트 정책
<a name="access-points-for-fsxn-policies"></a>

Amazon S3 액세스 포인트는 리소스, 사용자 또는 기타 조건별로 액세스 포인트 사용을 제어할 수 있는 AWS Identity and Access Management (IAM) 리소스 정책을 지원합니다. 애플리케이션 또는 사용자가 액세스 포인트를 통해 객체에 액세스할 수 있으려면 액세스 포인트와 기본 데이터 소스가 모두 요청을 허용해야 합니다.

선택적 액세스 포인트 정책을 생성하려면 `s3:PutAccessPointPolicy` 권한이 필요합니다.

Amazon FSx 볼륨에 S3 액세스 포인트를 연결하면 볼륨에 대한 모든 기존 작업이 이전과 같이 계속 작동합니다. 액세스 포인트 정책에 포함시키는 제한은 해당 액세스 포인트를 통해 이루어진 요청에만 적용됩니다. 자세한 내용은 *Amazon Simple Storage Service 사용 설명서*의 [액세스 포인트를 사용하기 위한 IAM 정책 구성을](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points-policies.html) 참조하세요.

Amazon FSx 콘솔을 사용하여 FSx for ONTAP 볼륨에 연결된 액세스 포인트를 생성할 때 액세스 포인트 정책을 구성할 수 있습니다. FSx 기존 S3 액세스 포인트에서 액세스 포인트 정책을 추가, 수정 또는 삭제하려면 S3 콘솔, CLI 또는 API를 사용할 수 있습니다.

# 액세스 포인트 생성
<a name="fsxn-creating-access-points"></a>

Amazon FSx 콘솔, CLI, API 및 지원되는 SDK를 사용하여 Amazon FSx 볼륨에 연결하는 S3 액세스 포인트를 생성하고 관리할 수 있습니다. SDKs 

**참고**  
다른 사용자가 액세스 포인트를 사용할 수 있도록 S3 액세스 포인트 이름을 공개하고 싶을 수 있으므로 S3 액세스 포인트 이름에 민감한 정보를 포함하지 마세요. 도메인 이름 시스템(DNS)이라고 하는 공개적으로 액세스할 수 있는 데이터베이스에 액세스 포인트 이름이 게시됩니다. 액세스 포인트 이름에 대한 자세한 내용은 섹션을 참조하세요[액세스 포인트 이름 지정 규칙](access-point-for-fsxn-restrictions-limitations-naming-rules.md#access-points-for-fsxn-naming-rules).

## 필수 권한
<a name="create-ap-permissions"></a>

Amazon FSx 볼륨에 연결된 S3 액세스 포인트를 생성하려면 다음 권한이 필요합니다.
+ `fsx:CreateAndAttachS3AccessPoint`
+ `s3:CreateAccessPoint`
+ `s3:GetAccessPoint`

Amazon FSx 또는 S3 콘솔을 사용하여 선택적 액세스 포인트 정책을 생성하려면 `s3:PutAccessPointPolicy` 권한이 필요합니다. 자세한 내용은 [IAM 액세스 포인트 정책](s3-ap-manage-access-fsxn.md#access-points-for-fsxn-policies) 단원을 참조하십시오.

액세스 포인트를 생성하려면 다음 주제를 참조하십시오.

**Topics**
+ [필수 권한](#create-ap-permissions)
+ [액세스 포인트 생성](create-access-points.md)
+ [가상 프라이빗 클라우드(VPC)로 제한된 액세스 포인트 생성](access-points-for-fsxn-vpc.md)

# 액세스 포인트 생성
<a name="create-access-points"></a>

**중요**  
S3 액세스 포인트를 FSx for ONTAP 볼륨에 연결하려면 볼륨을 마운트해야 합니다(연결 경로 있음). 자세한 내용은 [ONTAP 설명서를](https://docs.netapp.com/us-en/ontap/nfs-admin/mount-unmount-existing-volumes-nas-namespace-task.html) 참조하세요.

볼륨에 대한 S3 액세스 포인트를 생성할 때 FSx for ONTAP 볼륨이 계정에 이미 있어야 합니다.

FSx for ONTAP 볼륨에 연결된 S3 액세스 포인트를 생성하려면 다음 속성을 지정합니다.
+ 액세스 포인트 이름. 액세스 포인트 이름 지정 규칙에 대한 자세한 내용은 섹션을 참조하세요[액세스 포인트 이름 지정 규칙](access-point-for-fsxn-restrictions-limitations-naming-rules.md#access-points-for-fsxn-naming-rules).
+ 액세스 포인트를 사용하여 이루어진 파일 액세스 요청을 승인하는 데 사용할 파일 시스템 사용자 자격 증명입니다. 포함하려는 UNIX 또는 Windows POSIX 사용자 이름을 지정합니다. 자세한 내용은 [파일 시스템 사용자 자격 증명 및 권한 부여](s3-ap-manage-access-fsxn.md#fsxn-file-system-user-identity) 단원을 참조하십시오.
+ 액세스 포인트의 네트워크 구성에 따라 인터넷에서 액세스 포인트에 액세스할 수 있는지 또는 액세스가 특정 Virtual Private Cloud(VPC)로 제한되는지 여부가 결정됩니다. 자세한 내용은 [가상 프라이빗 클라우드(VPC)로 제한된 액세스 포인트 생성](access-points-for-fsxn-vpc.md) 단원을 참조하십시오.

## FSx 볼륨에 연결된 S3 액세스 포인트를 생성하려면(FSx 콘솔)
<a name="access-points-for-fsxn-create-ap"></a>

1. [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/)에서 Amazon FSx 콘솔을 엽니다.

1. 페이지 상단의 탐색 모음에서 액세스 포인트를 생성할 AWS 리전 를 선택합니다. 액세스 포인트는 연결된 볼륨과 동일한 리전에서 생성해야 합니다.

1. 왼쪽 탐색 창에서 **볼륨**을 선택합니다.

1. **볼륨** 페이지에서 액세스 포인트를 연결할 FSx for ONTAP 볼륨을 선택합니다.

1. **작업** 메뉴에서 ** S3 액세스 포인트 생성을** 선택하여 ** S3 액세스 포인트 생성** 페이지를 표시합니다.

1. **액세스 포인트 이름**에 액세스 포인트의 이름을 입력합니다. 액세스 포인트 이름의 지침 및 제한에 대한 자세한 내용은 섹션을 참조하세요[액세스 포인트 이름 지정 규칙](access-point-for-fsxn-restrictions-limitations-naming-rules.md#access-points-for-fsxn-naming-rules).

   **데이터 소스 세부** 정보는 3단계에서 선택한 볼륨 정보로 채워집니다.

1. 파일 시스템 사용자 자격 증명은 Amazon FSx에서이 액세스 포인트를 사용하여 이루어진 파일 액세스 요청을 인증하는 데 사용됩니다. 지정한 파일 시스템 사용자에게 FSx for ONTAP 볼륨에 대한 올바른 권한이 있는지 확인합니다.

   **파일 시스템 사용자 자격 증명 유형**에서 UNIX 또는 Windows를 선택합니다.

1. **사용자 이름**에 사용자의 사용자 이름을 입력합니다.

1. **네트워크 구성** 패널에서 인터넷에서 액세스 포인트에 액세스할지 아니면 특정 가상 프라이빗 클라우드로 액세스가 제한되는지 선택합니다.

   **네트워크 오**리진에서 **인터넷**을 선택하여 인터넷에서 액세스 포인트에 액세스할 수 있도록 하거나 **Virtual Private Cloud(VPC)**를 선택하고 액세스 포인트에 대한 액세스를 제한하려는 **VPC ID**를 입력합니다.

   액세스 포인트의 네트워크 오리진에 대한 자세한 내용은 [가상 프라이빗 클라우드(VPC)로 제한된 액세스 포인트 생성](access-points-for-fsxn-vpc.md) 섹션을 참조하십시오.

1. (선택 사항) **액세스 포인트 정책 - *선택*** 사항에서 선택적 액세스 포인트 정책을 지정합니다. 정책 경고, 오류 및 제안 사항을 모두 해결해야 합니다. 액세스 포인트 정책 지정에 대한 자세한 내용은 *Amazon Simple Storage Service 사용 설명서*의 [액세스 포인트를 사용하기 위한 IAM 정책 구성을](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points-policies.html) 참조하세요.

1. **액세스 포인트 생성을** 선택하여 액세스 포인트 연결 구성을 검토합니다.

## FSx 볼륨에 연결된 S3 액세스 포인트를 생성하려면(CLI)
<a name="creating-access-point-cli"></a>

다음 예제 명령*`my-ontap-ap`*은 계정의 FSx for ONTAP 볼륨*`fsvol-0123456789abcdef9`*에 연결된 라는 액세스 포인트를 생성합니다*`111122223333`*.

```
$ aws fsx create-and-attach-s3-access-point --name my-ontap-ap --type ONTAP --ontap-configuration \
   VolumeId=fsvol-0123456789abcdef9,FileSystemIdentity='{Type=UNIX,UnixUser={Name=ec2-user}}' \
   --s3-access-point VpcConfiguration='{VpcId=vpc-0123467},Policy=access-point-policy-json
```

요청이 성공하면 시스템은 새 S3 액세스 포인트 연결을 반환하여 응답합니다.

```
$ {
  {
     "S3AccessPointAttachment": {
        "CreationTime": 1728935791.8,
        "Lifecycle": "CREATING",
        "LifecycleTransitionReason": {
            "Message": "string"
        },
        "Name": "my-ontap-ap",
        "OntapConfiguration": {
            "VolumeId": "fsvol-0123456789abcdef9",
            "FileSystemIdentity": {
                "Type": "UNIX",
                "UnixUser": {
                    "Name": "ec2-user"
                }
            }
        },
        "S3AccessPoint": {
            "ResourceARN": "arn:aws:s3:us-east-1:111122223333:accesspoint/my-ontap-ap",
            "Alias": "my-ontap-ap-aqfqprnstn7aefdfbarligizwgyfouse1a-ext-s3alias",
            "VpcConfiguration": {
                "VpcId": "vpc-0123467"
        }
     }
  }
}
```

# 가상 프라이빗 클라우드(VPC)로 제한된 액세스 포인트 생성
<a name="access-points-for-fsxn-vpc"></a>

액세스 포인트를 생성할 때 인터넷에서 액세스 포인트에 액세스하도록 선택하거나 해당 액세스 포인트를 통해 이루어진 모든 요청이 특정 Amazon Virtual Private Cloud에서 시작되도록 지정할 수 있습니다. 인터넷에서 액세스할 수 있는 액세스 포인트의 네트워크 오리진은 `Internet`입니다. 액세스 포인트, 기본 버킷 또는 Amazon FSx 볼륨 및 요청된 객체와 같은 관련 리소스에 적용되는 기타 액세스 제한에 따라 인터넷상의 어디에서나 사용할 수 있습니다. 지정된 Amazon VPC에서만 액세스할 수 있는 액세스 포인트는의 네트워크 오리진을 가지며`VPC`, Amazon S3는 해당 Amazon VPC에서 시작되지 않은 액세스 포인트에 대한 모든 요청을 거부합니다.

**중요**  
액세스 포인트를 생성할 때만 액세스 포인트의 네트워크 오리진을 지정할 수 있습니다. 액세스 포인트를 생성한 후에는 네트워크 오리진을 변경할 수 없습니다.

액세스 포인트를 Amazon VPC 전용 액세스로 제한하려면 액세스 포인트 생성 요청과 함께 `VpcConfiguration` 파라미터를 포함합니다. `VpcConfiguration` 파라미터에서 액세스 포인트를 사용할 Amazon VPC ID를 지정합니다. 액세스 포인트를 통해 요청이 이루어진 경우 Amazon VPC에서 요청이 시작되어야 합니다. 그렇지 않으면 Amazon S3가 요청을 거부합니다.

, AWS CLI AWS SDKs APIs. 액세스 포인트에 Amazon VPC 구성이 지정된 경우 해당 네트워크 오리진은 입니다`VPC`. 그렇지 않으면 액세스 포인트의 네트워크 오리진은 `Internet`입니다.

**Example**  
***예: Amazon VPC 액세스로 제한된 액세스 포인트 생성***  
다음 예제에서는 `vpc-1a2b3c` Amazon VPC에서만 액세스를 `123456789012` 허용하는 계정의 버킷`amzn-s3-demo-bucket`에 `example-vpc-ap` 대해 라는 액세스 포인트를 생성합니다. 그런 다음 새 액세스 포인트의 네트워크 오리진이 `VPC`인지 확인합니다.  

```
$ aws fsx create-and-attach-s3-access-point --name example-vpc-ap --type ONTAP --ontap-configuration \
   VolumeId=fsvol-0123456789abcdef9,FileSystemIdentity='{Type=UNIX,UnixUser={Name=ec2-user}}' \
   --s3-access-point VpcConfiguration='{VpcId=vpc-id},Policy=access-point-policy-json
```

```
$ {
  {
     "S3AccessPointAttachment": {
        "Lifecycle": "CREATING",
        "CreationTime": 1728935791.8,
        "Name": "example-vpc-ap",
        "OntapConfiguration": {
            "VolumeId": "fsvol-0123456789abcdef9",
            "FileSystemIdentity": {
                "Type": "UNIX",
                "UnixUser": {
                    "Name": "my-unix-user"
                }
            }
        },
        "S3AccessPoint": {
            "ResourceARN": "arn:aws:s3:us-east-1:111122223333:accesspoint/example-vpc-ap",
            "Alias": "access-point-abcdef0123456789ab12jj77xy51zacd4-ext-s3alias",
            "VpcConfiguration": { 
                "VpcId": "vpc-1a2b3c"
            }
        }
     }
  }
```

Amazon VPC에서 액세스 포인트를 사용하려면 Amazon VPC 엔드포인트에 대한 액세스 정책을 수정해야 합니다. Amazon VPC 엔드포인트를 사용하면 트래픽이 Amazon VPC에서 Amazon S3로 흐를 수 있습니다. Amazon VPC 내의 리소스가 Amazon S3와 상호 작용할 수 있는 방식을 제어하는 액세스 제어 정책이 있습니다. Amazon VPC에서 Amazon S3로의 요청은 Amazon VPC 엔드포인트 정책이 액세스 포인트와 기본 버킷 모두에 대한 액세스 권한을 부여하는 경우에만 액세스 포인트를 통해 성공합니다.

**참고**  
Amazon VPC 내에서만 리소스에 액세스할 수 있도록 하려면 Amazon VPC 엔드포인트에 대한 [프라이빗 호스팅 영역을](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/hosted-zone-private-creating.html) 생성해야 합니다. 프라이빗 호스팅 영역을 사용하려면 [Amazon VPC 네트워크 속성 및가 로 설정되도록 Amazon VPC 설정을 수정합니다](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-dns.html#vpc-dns-updating)`true`. [https://docs.aws.amazon.com/vpc/latest/userguide/vpc-dns.html#vpc-dns-support](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-dns.html#vpc-dns-support) `enableDnsHostnames` `enableDnsSupport` 

다음 예제 정책 문은 `GetObject` 및 라는 액세스 포인트에 대한 호출을 허용하도록 Amazon VPC 엔드포인트를 구성합니다`example-vpc-ap`.

------
#### [ JSON ]

****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
    {
        "Principal": "*",
        "Action": [
            "s3:GetObject"
        ],
        "Effect": "Allow",
        "Resource": [
            "arn:aws:s3:us-east-1:123456789012:accesspoint/example-vpc-ap/object/*"
        ]
    }]
}
```

------

**참고**  
이 예제의 `Resource` 선언은 Amazon 리소스 이름(ARN)을 사용하여 액세스 포인트를 지정합니다.

Amazon VPC 엔드포인트 정책에 대한 자세한 내용은 Amazon *VPC 사용 설명서*의 [ Amazon S3용 게이트웨이 엔드포인트](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints-s3.html#vpc-endpoints-policies-s3)를 참조하세요.

# Amazon S3 액세스 포인트 관리
<a name="access-points-for-fsxn-manage"></a>

이 섹션에서는 AWS Management Console AWS Command Line Interface또는 API를 사용하여 Amazon S3 액세스 포인트를 관리하고 사용하는 방법을 설명합니다.

**Topics**
+ [S3 액세스 포인트 연결 나열](access-points-list.md)
+ [액세스 포인트 세부 정보 보기](access-points-details.md)
+ [S3 액세스 포인트 연결 삭제](delete-access-point.md)

# S3 액세스 포인트 연결 나열
<a name="access-points-list"></a>

이 섹션에서는 AWS Management Console AWS Command Line Interface또는 REST API를 사용하여 S3 액세스 포인트를 나열하는 방법을 설명합니다.

## FSx for ONTAP 볼륨에 연결된 모든 S3 액세스 포인트를 나열하려면(Amazon FSx 콘솔)
<a name="access-points-list-console"></a>

1. [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/)에서 Amazon FSx 콘솔을 엽니다.

1. 콘솔 왼쪽의 탐색 창에서 **볼륨을** 선택합니다.

1. **볼륨** 페이지에서 액세스 포인트 연결을 보려는 **ONTAP** 볼륨을 선택합니다.

1. 볼륨 세부 정보 페이지에서 **S3**를 선택하여 볼륨에 연결된 모든 S3 액세스 포인트 목록을 봅니다.

## FSx for ONTAP 볼륨에 연결된 모든 S3 액세스 포인트를 나열하려면(AWS CLI)
<a name="access-points-list-cli"></a>

다음 [https://docs.aws.amazon.com/fsx/latest/APIReference/API_DescribeS3AccessPointAttachments.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_DescribeS3AccessPointAttachments.html) 예제 명령은를 사용하여 S3 액세스 포인트 연결을 나열 AWS CLI 하는 방법을 보여줍니다.

다음 명령은 FSx for ONTAP 파일 시스템 fs-0abcdef123456789의 볼륨에 연결된 모든 S3 액세스 포인트를 나열합니다.

```
aws fsx describe-s3-access-point-attachments --filter {[Name: file-system-id, Values:{[fs-0abcdef123456789]}} 
```

다음 명령은 FSx for ONTAP 볼륨 vol-9abcdef123456789]에 연결된 S3 액세스 포인트를 나열합니다.

```
aws fsx describe-s3-access-point-attachments --filter {[Name: volume-id, Values:{[vol-9abcdef123456789]}} 
```

자세한 내용과 예제는 **AWS CLI 명령 참조에서 [https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3control/list-access-points.html](https://awscli.amazonaws.com/v2/documentation/api/latest/reference/s3control/list-access-points.html)를 참조하십시오.

# 액세스 포인트 세부 정보 보기
<a name="access-points-details"></a>

이 섹션에서는 AWS Management Console AWS Command Line Interface또는 REST API를 사용하여 S3 액세스 포인트의 세부 정보를 보는 방법을 설명합니다.

## FSx for ONTAP 볼륨에 연결된 S3 액세스 포인트의 세부 정보를 보려면(Amazon FSx 콘솔)
<a name="access-points-details-console"></a>

1. [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/)에서 Amazon FSx 콘솔을 엽니다.

1. 세부 정보를 보려는 액세스 포인트에 연결된 볼륨으로 이동합니다.

1. **S3**를 선택하여 볼륨에 연결된 액세스 포인트 목록을 표시합니다.

1. 세부 정보를 보려는 액세스 포인트를 선택합니다.

1. **S3 액세스 포인트 연결 요약**에서 선택한 액세스 포인트의 구성 세부 정보 및 속성을 확인합니다.

   액세스 포인트 연결에 대한 **파일 시스템 사용자 자격 증명** 구성 및 S3 액세스 포인트 권한 정책도 나열됩니다. **S3 ** 

1. Amazon S3 콘솔에서 액세스 포인트의 S3 구성을 보려면 S3 액세스 포인트 아래에 표시된 **S3 액세스 포인트** 이름을 선택합니다. Amazon S3 Amazon S3 콘솔에서 액세스 포인트의 세부 정보 페이지로 이동합니다.

# S3 액세스 포인트 연결 삭제
<a name="delete-access-point"></a>

이 섹션에서는 AWS Management Console AWS Command Line Interface또는 REST API를 사용하여 S3 액세스 포인트를 삭제하는 방법을 설명합니다.

S3 액세스 포인트 연결을 삭제하려면 `fsx:DetatchAndDeleteS3AccessPoint` 및 `s3control:DeleteAccessPoint` 권한이 필요합니다.

## FSx for ONTAP 볼륨에 연결된 S3 액세스 포인트를 삭제하려면(Amazon FSx 콘솔)
<a name="access-points-delete-console"></a>

1. [https://console.aws.amazon.com/fsx/](https://console.aws.amazon.com/fsx/)에서 Amazon FSx 콘솔을 엽니다.

1. 삭제하려는 S3 액세스 포인트 연결이 연결된 볼륨으로 이동합니다.

1. 볼륨에 연결된 **S3** 액세스 포인트 목록을 표시하려면 S3를 선택합니다.

1. 삭제할 S3 액세스 포인트 연결을 선택합니다.

1. **삭제**를 선택합니다.

1. S3 액세스 포인트를 삭제할지 확인하고 **삭제**를 선택합니다.

## FSx for ONTAP 볼륨에 연결된 S3 액세스 포인트를 삭제하려면(AWS CLI)
<a name="access-points-delete-cli"></a>
+ S3 액세스 포인트 연결을 삭제하려면 다음 예제와 같이 [detach-and-delete-s3-access-point](https://docs.aws.amazon.com/cli/latest/reference/fsx/detach-and-delete-s3-access-point.html) CLI 명령(또는 이에 상응하는 [DetachAndDeleteS3AccessPoint](https://docs.aws.amazon.com/fsx/latest/APIReference/API_DetachAndDeleteS3AccessPoint.html) API 작업)을 사용합니다. `--name` 속성을 사용하여 삭제할 S3 액세스 포인트 연결의 이름을 지정합니다.

  ```
  aws fsx detach-and-delete-s3-access-point \
      --region us-east-1 \
      --name my-ontap-ap
  ```

# 액세스 포인트 사용
<a name="access-points-for-fsxn-usage-examples"></a>

다음 예제에서는 액세스 포인트를 사용하여 S3 API를 사용하여 FSx for ONTAP 볼륨에 저장된 파일 데이터에 액세스하는 방법을 보여줍니다. FSx for ONTAP 볼륨에 연결된 액세스 포인트에서 지원하는 Amazon S3 API 작업의 전체 목록은 섹션을 참조하세요[액세스 포인트 호환성](access-points-for-fsxn-object-api-support.md).

**참고**  
FSx for ONTAP 볼륨의 파일은 `StorageClass`의 로 식별됩니다`FSX_ONTAP`.

**Topics**
+ [S3 액세스 포인트를 사용하여 파일 다운로드](get-object-ap.md)
+ [S3 액세스 포인트를 사용하여 파일 업로드](put-object-ap.md)
+ [S3 액세스 포인트를 사용하여 파일 나열](list-object-ap.md)
+ [S3 액세스 포인트를 사용하여 파일에 태그 지정](add-tag-set-ap.md)
+ [S3 액세스 포인트를 사용하여 파일 삭제](delete-object-ap.md)

# S3 액세스 포인트를 사용하여 파일 다운로드
<a name="get-object-ap"></a>

다음 `get-object` 예제 명령은 AWS CLI 를 사용하여 액세스 포인트를 통해 파일을 다운로드하는 방법을 보여줍니다. 다운로드한 객체의 파일 이름인 outfile을 포함해야 합니다.

이 예제에서는 액세스 포인트를 *`my-image.jpg`* 통해 파일을 요청*`my-ontap-ap`*하고 다운로드한 파일을 로 저장합니다*`download.jpg`*.

```
$ aws s3api get-object --key my-image.jpg --bucket my-ontap-ap-hrzrlukc5m36ft7okagglf3gmwluquse1b-ext-s3alias download.jpg
{
    "AcceptRanges": "bytes",
    "LastModified": "Mon, 14 Oct 2024 17:01:48 GMT",
    "ContentLength": 141756,
    "ETag": "\"00751974dc146b76404bb7290f8f51bb-1\"",
    "ContentType": "binary/octet-stream",
    "ServerSideEncryption": "SSE_FSX",
    "Metadata": {},
    "StorageClass": "FSX_ONTAP"
}
```

REST API를 사용하여 액세스 포인트를 통해 객체를 다운로드할 수도 있습니다. 자세한 내용은 *Amazon Simple Storage Service API 참조*에서 [https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_GetObject.html)를 참조하세요.

# S3 액세스 포인트를 사용하여 파일 업로드
<a name="put-object-ap"></a>

다음 `put-object` 예제 명령은 AWS CLI 를 사용하여 액세스 포인트를 통해 파일을 업로드하는 방법을 보여줍니다. 업로드된 객체의 파일 이름인 outfile을 포함해야 합니다.

이 예제에서는 액세스 포인트를 *`my-new-image.jpg`* 통해 파일을 업로드*`my-ontap-ap`*하고 업로드된 파일을 로 저장합니다*`my-new-image.jpg`*.

```
$ aws s3api put-object --bucket my-ontap-ap-hrzrlukc5m36ft7okagglf3gmwluquse1b-ext-s3alias --key my-new-image.jpg --body  my-new-image.jpg
```

REST API를 사용하여 액세스 포인트를 통해 객체를 업로드할 수도 있습니다. 자세한 내용은 *Amazon Simple Storage Service API 참조*에서 [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObject.html)를 참조하세요.

# S3 액세스 포인트를 사용하여 파일 나열
<a name="list-object-ap"></a>

다음 예시에서는 리전의 계정 ID가 `my-ontap-ap-hrzrlukc5m36ft7okagglf3gmwluquse1b-ext-s3alias` 소유한 액세스 포인트 별칭*`111122223333`*을 통해 파일을 나열합니다*`us-east-2`*.

```
$ aws s3api list-objects-v2 --bucket my-ontap-ap-hrzrlukc5m36ft7okagglf3gmwluquse1b-ext-s3alias
{
    "Contents": [
        {
            "Key": ".hidden-dir-with-data/file.txt",
            "LastModified": "2024-10-29T14:22:05.4359",
            "ETag": "\"88990077ab44cd55ef66aa77-1\"",
            "Size": 18,
            "StorageClass": "FSX_ONTAP"
        },
        {
            "Key": "documents/report.rtf",
            "LastModified": "2024-11-02T10:18:15.6621",
            "ETag": "\"ab12cd34ef56a89219zg6aa77-1\"",
            "Size": 1048576,
            "StorageClass": "FSX_ONTAP"
        },
    ]
}
```

REST API를 사용하여 파일을 나열할 수도 있습니다. 자세한 내용은 *Amazon Simple Storage Service API 참조*에서 [https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_ListObjectsV2.html)를 참조하세요.

# S3 액세스 포인트를 사용하여 파일에 태그 지정
<a name="add-tag-set-ap"></a>

다음 `put-object-tagging` 예제 명령은 AWS CLI 를 사용하여 액세스 포인트를 통해 태그 세트를 추가하는 방법을 보여줍니다. 각 태그는 키-값 페어입니다. 자세한 내용은 *Amazon Simple Storage Service 사용 설명서*의 [태그를 사용하여 스토리지 분류](https://docs.aws.amazon.com/AmazonS3/latest/userguide/object-tagging.html)를 참조하세요.

이 예제에서는 액세스 포인트를 `my-image.jpg` 사용하여 기존 파일에 태그 세트를 추가합니다*`my-ontap-ap`*.

```
$ aws s3api put-object-tagging --bucket my-ontap-ap-hrzrlukc5m36ft7okagglf3gmwluquse1b-ext-s3alias --key my-image.jpg --tagging TagSet=[{Key="finance",Value="true"}] 
```

REST API를 사용하여 액세스 포인트를 통해 객체에 태그 세트를 추가할 수도 있습니다. 자세한 내용은 *Amazon Simple Storage Service API 참조*에서 [https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_PutObjectTagging.html)를 참조하세요.

# S3 액세스 포인트를 사용하여 파일 삭제
<a name="delete-object-ap"></a>

다음 `delete-object` 예제 명령은 AWS CLI 를 사용하여 액세스 포인트를 통해 파일을 삭제하는 방법을 보여줍니다.

```
$ aws s3api delete-object --bucket my-ontap-ap-hrzrlukc5m36ft7okagglf3gmwluquse1b-ext-s3alias --key my-image.jpg 
```

REST API를 사용하여 액세스 포인트를 통해 객체를 삭제할 수도 있습니다. 자세한 내용은 *Amazon Simple Storage Service API 참조*에서 [https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteObject.html](https://docs.aws.amazon.com/AmazonS3/latest/API/API_DeleteObject.html)를 참조하세요.

# S3 액세스 포인트 문제 해결
<a name="troubleshooting-access-points-for-fsxn"></a>

이 섹션에서는 S3 액세스 포인트에서 FSx 데이터에 액세스하는 데 문제가 발생할 경우의 증상, 원인 및 해결 방법을 설명합니다.

## 파일 시스템 사용자 자격 증명 조회 실패로 인해 S3 액세스 포인트 생성 실패
<a name="name-mapping"></a>

S3 액세스 포인트를 생성하고 연결할 때를 제공해야 [https://docs.aws.amazon.com/fsx/latest/APIReference/API_OntapFileSystemIdentity.html#FSx-Type-OntapFileSystemIdentity-Type](https://docs.aws.amazon.com/fsx/latest/APIReference/API_OntapFileSystemIdentity.html#FSx-Type-OntapFileSystemIdentity-Type) 합니다. ONTAP 내에서 제공된 UNIX 또는 Windows 사용자를 구성하는 것은 사용자의 책임입니다.

이 제공된 경우 ONTAP[https://docs.aws.amazon.com/fsx/latest/APIReference/API_OntapUnixFileSystemUser.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_OntapUnixFileSystemUser.html)은 UnixUser 이름을 UNIX UID/GIDs. ONTAP은 [이름 서비스 스위치 구성을](https://docs.netapp.com/us-en/ontap/nfs-admin/ontap-name-service-switch-config-concept.html) 사용하여이 매핑을 수행하는 방법을 결정합니다.

```
> vserver services name-service ns-switch show
```

```
Vserver         Database       Order
--------------- ------------   ---------
svm_1           hosts          files,
                               dns
svm_1           group          files,
                               ldap
svm_1           passwd         files,
                               ldap
svm_1           netgroup       nis,
                               files
```

 유효한 소스( `files``ldap`등)를 사용하여 UnixUser에 `passwd` 및 `group` 데이터베이스에 항목이 있는지 확인하세요. `files` 소스는 `vserver services name-service unix-user` 및 `vserver services name-service unix-group` 명령을 사용하여 구성할 수 있습니다. `vserver services name-service ldap` 명령을 사용하여 `ldap` 소스를 구성할 수 있습니다.

 이 제공된 경우 ONTAP[https://docs.aws.amazon.com/fsx/latest/APIReference/API_OntapWindowsFileSystemUser.html](https://docs.aws.amazon.com/fsx/latest/APIReference/API_OntapWindowsFileSystemUser.html)은 조인된 Active Directory 도메인에서 WindowsUser 이름을 찾을 수 있어야 합니다.

 다음 명령을 사용하여 제공된 UnixUser 또는 WindowsUser가 올바르게 매핑되었는지 확인할 수 있습니다(WindowsUsers`-win-name`의 `fsxadmin` 경우 `-unix-user-name`로 대체).

```
> vserver services access-check authentication show-creds -node FsxId0fd48ff588b9d3eee-01 -vserver svm_name -unix-user-name root -show-partial-unix-creds true
```

성공적인 출력의 예:

```
 UNIX UID: root

 GID: daemon
 Supplementary GIDs:
  daemon
```

실패한 출력의 예:

```
Error: Acquire UNIX credentials procedure failed
  [  2 ms] Entry for user-name: unmapped-user not found in the
           current source: FILES. Entry for user-name: unmapped-user
           not found in any of the available sources
**[     3] FAILURE: Unable to retrieve UID for UNIX user
**         unmapped-user

Error: command failed: Failed to resolve user name to a UNIX ID. Reason: "SecD Error: object not found".
```

 사용자 매핑이 잘못되면 S3에서 `Access Denied` 오류가 발생할 수 있습니다. 아래 실패 이유 예제를 참조하세요.

**`Entry for user-name not found in the current source: LDAP`**

`ns-switch`가 `ldap` 소스를 사용하도록 구성된 경우 ONTAP이 LDAP 서버를 올바르게 사용하도록 구성되어 있는지 확인하세요. 자세한 내용은 [LDAP 구성에 대한 NetApp의 기술 보고서를](https://www.netapp.com/pdf.html?item=/media/19423-tr-4835.pdf) 참조하세요.

**`RESULT_ERROR_DNS_CANT_REACH_SERVER` 또는 `RESULT_ERROR_SECD_IN_DISCOVERY`**

이 오류는 ONTAP에서 vserver의 DNS 구성에 문제가 있음을 나타냅니다. 다음을 실행하여 vserver의 DNS가 올바르게 구성되었는지 확인합니다.

```
> dns check -vserver svm_name
```

**`NT_STATUS_PENDING`**

이 오류는 도메인 컨트롤러와 통신하는 데 문제가 있음을 나타냅니다. 기본 원인은 SMB 크레딧이 부족하기 때문일 수 있습니다. 자세한 내용은 [NetApp KB](https://kb.netapp.com/on-prem/ontap/da/NAS/NAS-KBs/How_ONTAP_implements_SMB_crediting)를 참조하세요.

## 볼륨이 마운트되지 않아 S3 액세스 포인트 생성에 실패했습니다.
<a name="junction"></a>

S3 액세스 포인트는 탑재된(연결 경로가 있는) FSx for ONTAP 볼륨에만 연결할 수 있습니다. 이는 DP(데이터 보호) 볼륨 유형에도 적용됩니다. 자세한 내용은 [ONTAP 볼륨 마운트 설명서를](https://docs.netapp.com/us-en/ontap/nfs-admin/mount-unmount-existing-volumes-nas-namespace-task.html) 참조하세요.

## SVM에서 S3 프로토콜이 비활성화되어 있기 때문에 S3 액세스 포인트 생성에 실패했습니다. S3
<a name="s3-protocol-not-allowed"></a>

S3 액세스 포인트는 스토리지 가상 머신(SVM)에서 S3 프로토콜을 활성화해야 합니다. S3 프로토콜을 활성화하려면를 사용하여 ONTAP CLI에서 다음 명령을 실행합니다`fsxadmin`.

```
> vserver add-protocols -vserver svm_name -protocols s3
```

프로토콜이 활성화되었는지 확인하려면:

```
> vserver show -vserver svm_name -fields allowed-protocols,disallowed-protocols
```

## 파일 시스템이 S3 요청을 처리할 수 없습니다.
<a name="no-request-handling"></a>

특정 워크로드에 대한 S3 요청 볼륨이 파일 시스템의 트래픽 처리 용량을 초과하는 경우 S3 요청 오류(예: , `Internal Server Error` `503 Slow Down`및 `Service Unavailable`)가 발생할 수 있습니다. Amazon CloudWatch 지표(예: `Network throughput utilization` 및 )를 사용하여 파일 시스템의 성능을 사전에 모니터링하고 경보할 수 있습니다`CPU utilization`. 성능 저하가 관찰되면 파일 시스템의 처리량 용량을 늘려이 문제를 해결할 수 있습니다.

## 자동으로 생성된 서비스 역할에 대한 기본 S3 액세스 포인트 권한으로 액세스 거부됨
<a name="ap-arn-format"></a>

일부 S3-integrated AWS 서비스는 사용자 지정 서비스 역할을 생성하고 특정 사용 사례에 연결된 권한을 사용자 지정합니다. S3 액세스 포인트 별칭을 S3 리소스로 지정할 때 연결된 권한에는 액세스 포인트 ARN 형식(예: )이 아닌 버킷 ARN 형식(예: `arn:aws:s3:::my-fsx-ap-foo7detztxouyjpwtu8krroppxytruse1a-ext-s3alias`)을 사용하는 액세스 포인트가 포함될 수 있습니다`arn:aws:s3:us-east-1:1234567890:accesspoint/my-fsx-ap`. 이 문제를 해결하려면 액세스 포인트의 ARN을 사용하도록 정책을 수정합니다.

# 다른 AWS 서비스의 데이터에 액세스
<a name="using-fsx-with-other-AWS-services"></a>

Amazon EC2 외에도 볼륨과 함께 다른 AWS 서비스를 사용하여 데이터에 액세스할 수 있습니다.

**Topics**
+ [FSx for ONTAP과 함께 Amazon WorkSpaces 사용](using-workspaces.md)
+ [FSx for ONTAP과 함께 Amazon Elastic Container Service 사용](mount-ontap-ecs-containers.md)
+ [x for ONTAP과 함께 Amazon Elastic Container Service 사용](evs-ontap.md)
+ [FSx for ONTAP과 함께 VMware Cloud 사용](vmware-cloud-ontap.md)

# FSx for ONTAP과 함께 Amazon WorkSpaces 사용
<a name="using-workspaces"></a>

FSx for ONTAP을 Amazon WorkSpaces와 함께 사용하여 공유 네트워크 연결 스토리지(NAS)를 제공하거나 Amazon WorkSpaces 계정의 로밍 프로파일을 저장할 수 있습니다. WorkSpaces 인스턴스로 SMB 파일 공유에 연결한 후 사용자는 파일 공유에서 파일을 생성하고 편집할 수 있습니다.

다음 절차는 Amazon WorkSpaces와 함께 Amazon FSx를 사용하여 로밍 프로파일 및 홈 폴더 액세스를 일관되게 제공하고 Windows 및 Linux WorkSpaces 사용자에게 공유 팀 폴더를 제공하는 방법을 보여줍니다. Amazon WorkSpaces를 처음 사용하는 경우 *Amazon WorkSpaces 관리 가이드*의 [WorkSpaces 빠른 설정으로 시작하기](https://docs.aws.amazon.com/workspaces/latest/adminguide/getting-started.html) 지침에 따라 첫 번째 Amazon WorkSpaces 환경을 생성할 수 있습니다.

**Topics**
+ [로밍 프로파일 지원 제공](#workspace-roaming-profile)
+ [공통 파일에 액세스할 수 있는 공유 폴더 제공](#workspace-shared-folder)

## 로밍 프로파일 지원 제공
<a name="workspace-roaming-profile"></a>

Amazon FSx를 사용하여 조직의 사용자에게 로밍 프로파일 지원을 제공할 수 있습니다. 사용자는 자신의 로밍 프로파일에만 액세스할 수 있는 권한을 갖습니다. 폴더는 Active Directory 그룹 정책을 사용하여 자동으로 연결됩니다. 로밍 프로파일을 사용하면 Amazon FSx 파일 공유에서 로그오프할 때 사용자의 데이터 및 데스크톱 설정이 저장되므로 여러 WorkSpaces 인스턴스 간에 문서와 설정을 공유하고 Amazon FSx 일별 자동 백업을 사용하여 자동으로 백업할 수 있습니다.

**1단계: Amazon FSx를 사용하여 도메인 사용자의 프로파일 폴더 위치 생성**

1. Amazon FSx 콘솔을 사용하여 FSx for ONTAP 파일 시스템을 생성합니다. 자세한 내용은 [파일 시스템 생성(콘솔)](creating-file-systems.md#create-MAZ-file-system-console) 섹션을 참조하세요.
**중요**  
각 FSx for ONTAP 파일 시스템에는 파일 시스템과 연결된 엔드포인트가 생성되는 엔드포인트 IP 주소 범위가 있습니다. 다중 AZ 파일 시스템의 경우 FSx for ONTAP은 198.19.0.0/16에서 사용되지 않는 기본 IP 주소 범위를 엔드포인트 IP 주소 범위로 선택합니다. *Amazon WorkSpaces 관리 가이드*의 [WorkSpaces의 IP 주소 및 포트 요구 사항](https://docs.aws.amazon.com/workspaces/latest/adminguide/workspaces-port-requirements.html)에 설명된 대로 이 IP 주소 범위는 WorkSpaces에서 관리 트래픽 범위로도 사용됩니다. 따라서 WorkSpaces에서 *다중 AZ* FSx for ONTAP 파일 시스템에 액세스하려면 198.19.0.0/16과 겹치지 않는 엔드포인트 IP 주소 범위를 선택해야 합니다.

1. Active Directory에 조인된 스토리지 가상 머신(SVM)이 없는 경우 지금 하나를 생성합니다. 예를 들어 이름이 `fsx`인 SVM을 프로비저닝하고 보안 스타일을 `NTFS`로 설정할 수 있습니다. 자세한 내용은 [스토리지 가상 머신 생성(콘솔)](creating-svms.md#create-svm-console) 섹션을 참조하세요.

1. SVM용 볼륨을 생성합니다. 예를 들어, SVM 루트 볼륨의 보안 스타일을 상속하는 `fsx-vol`이라는 이름의 볼륨을 생성할 수 있습니다. 자세한 내용은 [FlexVol 볼륨 생성(콘솔)](creating-volumes.md#create-volume-console) 섹션을 참조하세요.

1. 볼륨에 SMB 공유를 생성합니다. 예를 들어, `fsx-vol`이라는 이름의 볼륨에 `workspace`라는 공유를 생성하고 이 공유에 `profiles`라는 폴더를 생성할 수 있습니다. 자세한 내용은 [SMB 공유 관리](create-smb-shares.md) 섹션을 참조하세요.

1. Windows Server를 실행하는 Amazon EC2 인스턴스 또는 WorkSpaces에서 Amazon FSx SVM에 액세스합니다. 자세한 내용은 [FSx for ONTAP 데이터 액세스](supported-fsx-clients.md) 섹션을 참조하세요.

1. Windows WorkSpaces 인스턴스에서 공유를 `Z:\`에 매핑합니다.  
![\[ONTAP SMB 공유를 WorkSpaces의 문자에 매핑하기 위한 Windows 네트워크 드라이브 연결(Map Network Drive) 대화 상자.\]](http://docs.aws.amazon.com/ko_kr/fsx/latest/ONTAPGuide/images/workspace-map-drive.png)

**2단계: FSx for ONTAP 파일 공유를 사용자 계정에 연결**

1. 테스트 사용자의 WorkSpace에서 **Windows > 시스템 > 고급 시스템 설정**을 선택합니다.

1. **시스템 속성**에서 **고급** 탭을 선택하고 **사용자 프로파일** 섹션에서 **설정** 버튼을 누릅니다. 로그인한 사용자의 프로파일 유형은 `Local`입니다.

1. WorkSpaces에서 테스트 사용자를 로그아웃합니다.

1. Amazon FSx 파일 시스템에 로밍 프로파일이 위치하도록 테스트 사용자를 설정합니다. 관리자 WorkSpaces에서 PowerShell 콘솔을 열고 다음 예제와 비슷한 명령을 사용합니다(1단계에서 이전에 생성한 `profiles` 폴더 사용).

   ```
   Set-ADUser username -ProfilePath \\filesystem-dns-name\sharename\foldername\username
   ```

   예:

   ```
   Set-ADUser testuser01 -ProfilePath \\fsx.fsxnworkspaces.com\workspace\profiles\testuser01
   ```

1. 테스트 사용자 WorkSpaces에 로그온합니다.

1. **시스템 속성**에서 **고급** 탭을 선택하고 **사용자 프로파일** 섹션에서 **설정** 버튼을 누릅니다. 로그인한 사용자의 프로파일 유형은 `Roaming`입니다.  
![\[WorkSpace 사용자를 위해 구성된 프로파일을 보여주는 Windows 사용자 프로파일 대화 상자.\]](http://docs.aws.amazon.com/ko_kr/fsx/latest/ONTAPGuide/images/workspace-profiles.png)

1. FSx for ONTAP 공유 폴더를 찾아봅니다. `profiles` 폴더에 사용자를 위한 폴더가 있습니다.  
![\[WorkSpace 사용자의 새 폴더를 보여주는 Windows 파일 탐색기 대화 상자.\]](http://docs.aws.amazon.com/ko_kr/fsx/latest/ONTAPGuide/images/workspace-new-folder.png)

1. 테스트 사용자의 `Documents` 폴더에 문서를 생성합니다.

1. WorkSpaces에서 테스트 사용자를 로그아웃합니다.

1. 테스트 사용자로 다시 로그온하고 해당 사용자의 프로파일 저장소를 찾아보면 생성된 문서를 확인할 수 있습니다.  
![\[WorkSpaces 사용자를 위한 새 파일을 보여주는 Windows 파일 탐색기 대화 상자.\]](http://docs.aws.amazon.com/ko_kr/fsx/latest/ONTAPGuide/images/workspace-new-file.png)

## 공통 파일에 액세스할 수 있는 공유 폴더 제공
<a name="workspace-shared-folder"></a>

Amazon FSx를 사용하여 조직의 사용자에게 공유 폴더를 제공할 수 있습니다. 공유 폴더는 모든 사용자에게 필요한 데모 파일, 코드 예제, 지침 매뉴얼 등 사용자 커뮤니티에서 사용하는 파일을 저장하는 데 사용할 수 있습니다. 일반적으로 드라이브는 공유 폴더에 매핑되어 있지만 매핑된 드라이브는 문자를 사용하므로 공유할 수 있는 수의 제한이 있습니다. 이 절차를 통해 드라이브 문자 없이 사용할 수 있는 Amazon FSx 공유 폴더를 생성할 수 있으므로 팀에 공유를 보다 유연하게 할당할 수 있습니다.

**Linux 및 Windows WorkSpaces에서 플랫폼 간 액세스를 위한 공유 폴더 마운트**

1. **작업 표시줄**에서 **장소 > 서버에 연결**을 선택합니다.

   1. **서버**에 *file-system-dns-name*을 입력합니다.

   1. **유형**을 `Windows share`로 설정합니다.

   1. **공유**를 SMB 공유 이름(예: `workspace`)으로 설정합니다.

   1. **폴더** 를 `/`로 두거나 이름이 지정된 폴더(예: `team-shared`라는 이름의 폴더)로 설정할 수 있습니다.

   1. Linux WorkSpaces가 Amazon FSx 공유와 동일한 도메인에 있으면 Linux WorkSpaces에 사용자 세부 정보를 입력할 필요가 없습니다.

   1. **연결**을 선택합니다.  
![\[SMB 공유에 대한 연결을 보여주는 서버 연결(Connect to Server) 대화 상자.\]](http://docs.aws.amazon.com/ko_kr/fsx/latest/ONTAPGuide/images/workspace-connect.png)

1. 연결이 설정되면 `workspace`라는 이름의 SMB 공유에서 공유 폴더(이 예에서는 이름이 `team-shared`로 지정됨)를 볼 수 있습니다.  
![\[공유 폴더를 보여주는 Windows 대화 상자.\]](http://docs.aws.amazon.com/ko_kr/fsx/latest/ONTAPGuide/images/workspace-mounted.png)

# FSx for ONTAP과 함께 Amazon Elastic Container Service 사용
<a name="mount-ontap-ecs-containers"></a>

Amazon EC2 Linux 또는 Windows 인스턴스에서 Amazon Elastic Container Service(Amazon ECS) 도커 컨테이너로부터 Amazon FSx for NetApp ONTAP 파일 시스템에 액세스할 수 있습니다.

## Amazon ECS Linux 컨테이너에서 마운트
<a name="mount-ecs-linux"></a>

1. Linux 컨테이너용 EC2 Linux \$1 네트워킹 클러스터 템플릿을 사용하여 ECS 클러스터를 생성합니다. 자세한 내용은 *Amazon Elastic Container Service 개발자 안내서*의 [클러스터 생성](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/create_cluster.html)을 참조하세요.

1. 다음과 같이 SVM 볼륨을 마운트할 디렉터리를 EC2 인스턴스에 생성합니다.

   ```
   sudo mkdir /fsxontap
   ```

1. 인스턴스 시작 중에 사용자 데이터 스크립트를 사용하거나 다음 명령을 실행하여 Linux EC2 인스턴스에 FSx for ONTAP 볼륨을 마운트합니다.

   ```
   sudo mount -t nfs svm-ip-address:/vol1 /fsxontap
   ```

1. 다음 명령을 사용하여 볼륨을 마운트합니다.

   ```
   sudo mount -t nfs -o nfsvers=NFS_version svm-dns-name:/volume-junction-path /fsxontap
   ```

   다음 예제는 샘플 값을 사용합니다.

   ```
   sudo mount -t nfs -o nfsvers=4.1 svm-01234567890abdef0.fs-01234567890abcdef1.fsx.us-east-1.amazonaws.com:/vol1 /fsxontap
   ```

   DNS 이름 대신 SVM의 IP 주소를 사용할 수도 있습니다.

   ```
   sudo mount -t nfs -o nfsvers=4.1 198.51.100.1:/vol1 /fsxontap
   ```

1. Amazon ECS 작업 정의를 생성할 때 JSON 컨테이너 정의에 다음 `volumes` 및 `mountPoints` 컨테이너 속성을 추가합니다. `sourcePath`를 FSx for ONTAP 파일 시스템의 마운트 지점 및 디렉터리로 바꿉니다.

   ```
   {
       "volumes": [
           {
               "name": "ontap-volume",
               "host": {
                   "sourcePath": "mountpoint"
               }
           }
       ],
       "mountPoints": [
           {
               "containerPath": "containermountpoint",
               "sourceVolume": "ontap-volume"
           }
       ],
       .
       .
       .
   }
   ```

## Amazon ECS Windows 컨테이너에서 마운트
<a name="mount-ecs-windows"></a>

1. Windows 컨테이너용 EC2 Windows \$1 네트워킹 클러스터 템플릿을 사용하여 ECS 클러스터를 생성합니다. 자세한 내용은 *Amazon Elastic Container Service 개발자 안내서*의 [클러스터 생성](https://docs.aws.amazon.com/AmazonECS/latest/developerguide/create_cluster.html)을 참조하세요.

1. 도메인에 조인된 Windows EC2 인스턴스를 ECS Windows 클러스터에 추가하고 SMB 공유를 매핑합니다.

   Active Directory 도메인에 조인된 ECS에 최적화된 Windows EC2 인스턴스를 시작하고 다음 명령을 실행하여 ECS 에이전트를 초기화합니다.

   ```
   PS C:\Users\user> Initialize-ECSAgent -Cluster windows-fsx-cluster -EnableTaskIAMRole
   ```

   다음과 같이 스크립트의 정보를 사용자 데이터 텍스트 필드에 전달할 수도 있습니다.

   ```
   <powershell>
   Initialize-ECSAgent -Cluster windows-fsx-cluster -EnableTaskIAMRole
   </powershell>
   ```

1. SMB 공유를 드라이브에 매핑할 수 있도록 EC2 인스턴스에 SMB 글로벌 매핑을 생성합니다. 아래의 netbios 또는 DNS 이름의 값을 FSx 파일 시스템 및 공유 이름의 값으로 바꿉니다. Linux EC2 인스턴스에 마운트된 NFS 볼륨 vol1은 FSx 파일 시스템에서 CIFS 공유 fsxontap으로 구성되어 있습니다.

   ```
   vserver cifs share show -vserver svm08 -share-name fsxontap
   
   
                                         Vserver: svm08
                                           Share: fsxontap
                        CIFS Server NetBIOS Name: FSXONTAPDEMO
                                            Path: /vol1
                                Share Properties: oplocks
                                                  browsable
                                                  changenotify
                                                  show-previous-versions
                              Symlink Properties: symlinks
                         File Mode Creation Mask: -
                    Directory Mode Creation Mask: -
                                   Share Comment: -
                                       Share ACL: Everyone / Full Control
                   File Attribute Cache Lifetime: -
                                     Volume Name: vol1
                                   Offline Files: manual
                   Vscan File-Operations Profile: standard
               Maximum Tree Connections on Share: 4294967295
                      UNIX Group for File Create: -
   ```

1. 다음 명령을 사용하여 EC2 인스턴스에 SMB 글로벌 매핑을 생성합니다.

   ```
   New-SmbGlobalMapping -RemotePath \\fsxontapdemo.fsxontap.com\fsxontap -LocalPath Z:
   ```

1. Amazon ECS 작업 정의를 생성할 때 JSON 컨테이너 정의에 다음 `volumes` 및 `mountPoints` 컨테이너 속성을 추가합니다. `sourcePath`를 FSx for ONTAP 파일 시스템의 마운트 지점 및 디렉터리로 바꿉니다.

   ```
   {
       "volumes": [
           {
               "name": "ontap-volume",
               "host": {
                   "sourcePath": "mountpoint"
               }
           }
       ],
       "mountPoints": [
           {
               "containerPath": "containermountpoint",
               "sourceVolume": "ontap-volume"
           }
       ],
       .
       .
       .
   }
   ```

# x for ONTAP과 함께 Amazon Elastic Container Service 사용
<a name="evs-ontap"></a>

FSx for ONTAP을 Amazon Elastic VMware Service(Amazon EVS) 소프트웨어 정의 데이터 센터(SDDC)에 대한 외부 데이터 스토어로 사용할 수 있습니다. 자세한 내용은 [Amazon FSx for NetApp ONTAP을 사용하여 고성능 워크로드 실행](https://docs.aws.amazon.com/evs/latest/userguide/fsx-ontap.html)을 참조하세요. 자세한 지침은 [NFS 데이터 스토어로 Amazon FSx for NetApp ONTAP 구성](https://docs.aws.amazon.com/evs/latest/userguide/config-fsx-nfs-datastore.html) 및 [iSCSI 데이터 스토어로 Amazon FSx for NetApp ONTAP 구성](https://docs.aws.amazon.com/evs/latest/userguide/config-fsx-iscsi-datastore.html)을 참조하세요.

# FSx for ONTAP과 함께 VMware Cloud 사용
<a name="vmware-cloud-ontap"></a>

FSx for ONTAP을 AWS 소프트웨어 정의 데이터 센터(SDDC)의 VMware Cloud에 대한 외부 데이터 스토어로 사용할 수 있습니다.SDDCs 자세한 내용은 Configure [ Amazon FSx for NetApp ONTAP as External Storage](https://docs.vmware.com/en/VMware-Cloud-on-AWS/services/com.vmware.vmc-aws-operations/GUID-D55294A3-7C40-4AD8-80AA-B33A25769CCA.html?hWord=N4IghgNiBcIGYGcAeIC+Q) and [VMware Cloud AWS with Amazon FSx for NetApp ONTAP Deployment Guide](https://vmc.techzone.vmware.com/fsx-guide#overview)를 참조하세요.