

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# Amazon Quick Sight のデータへの接続
<a name="working-with-data"></a>

さまざまな役割を担うユーザーは、Amazon Quick Sight を使用して、分析や高度な計算、データダッシュボードの設計、分析の埋め込み、情報に基づいた意思決定を行うことができます。その前に、データを理解する人が [Quick Sight データセット](https://docs.aws.amazon.com/quicksuite/latest/userguide/creating-data-sets)に追加する必要があります。Quick Sight は、さまざまな[データソース](https://docs.aws.amazon.com/quicksuite/latest/userguide/working-with-data-sources)からの直接接続とアップロードをサポートしています。**機能とユースケース**

**Amazon Quick Standard Edition の機能**  
Quick Standard Edition でデータが利用可能になったら、次の操作を実行できます。  
+ フィールドの書式設定、階層、データ型の変換、計算を使用して、データセットを変換する。
+ 新しく作成したデータセットに基づいて 1 つ以上のデータ分析を作成する。
+ 他のユーザーと分析を共有し設計に役立てる。
+ チャート、グラフ、さらに多くのデータセット、複数のページ (シートと呼ばれる) をデータ分析に追加する。
+ カスタマイズされた書式設定とテーマで魅力ある見た目を作る。
+ パラメータ、コントロール、フィルタ、カスタムアクションを使用してインタラクティブにする。
+ 複数のデータソースのデータを結合し、集計やウィンドウ関数など、分析中のみ使用できるドリルダウンや計算用の新しい階層を構築する。
+ 分析をインタラクティブなデータダッシュボードとして公開する。
+ ダッシュボードを共有し、他のユーザーが、それに基づいた分析を使用していない場合でも、そのダッシュボードを使用できるようにする。
+ さらにデータを追加し、さらに多くの分析とダッシュボードを作成する。

**Amazon Quick** **Enterprise Edition の機能**  
Quick Enterprise Edition でデータが利用可能になったら、ロールに応じてさまざまな操作を実行できます。データセットの構築、分析の設計、ダッシュボードの公開が行える場合は、Standard Edition を使用しているユーザーが行えるすべての操作を実行できます。  
さらに、実行可能なその他のタスクの例を以下に挙げます。  
+ Quick Sight インサイトを使用する分析を作成します。これには、予測、異常値と外れ値の検出、主要なドライバーの識別のための機械学習 (ML) を活用したインサイトが含まれます。
+ テキスト、色、画像、計算を使用して、ストーリー的なインサイトを設計する。
+ 仮想プライベートクラウド (VPC) とオンプレミスのデータソースからデータを追加し、保管時のデータ暗号化を行う。
+ 行レベルと列レベルのセキュリティを追加し、データセット内のアクセスを制御する。
+ インポートされたデータセットを 1 時間ごとに更新する。
+ メールで送信されたレポートを共有する。

**アプリケーション開発**  
アプリケーションを開発したり、 AWS SDKsと AWS Command Line Interface (AWS CLI) を使用したりする場合は、以下を実行できます。  
+ 埋め込み分析と埋め込みのインタラクティブダッシュボードを Web サイトやアプリケーションに追加する。
+ API オペレーションを使用して、データソースとデータセットを管理する。
+ データ取り込みの API オペレーションを使用して、インポートしたデータの更新をさらに頻繁に行う。
+ API オペレーションを使用して、分析およびダッシュボードからテンプレートのスクリプト化、転送、作成を行う。
+ システム管理者が管理している設定に基づいて、ユーザーをプログラムでセキュリティロールに割り当てる。

**Quick の管理関数**  
Quick で管理機能を実行する場合は、以下を実行できます。  
+ 共有フォルダを使用してセキュリティを管理し、チームの作業を整理し、ダッシュボード、分析、データセットを使用してチームの共同作業を支援する。
+ VPC に Quick Sight を追加して、VPC およびオンプレミスデータソースのデータへのアクセスを有効にします。
+  AWS データソースに対するきめ細かなアクセス制御によって機密データを保護する。
+ クイック作成者セキュリティロールにユーザーを手動で割り当てて、データセットの準備、分析の設計、データダッシュボードの公開を 1 か月あたりの固定コストで行えるようにします。
+ Quick Reader セキュリティロールにユーザーを手動で割り当てて、pay-per-session公開されたデータダッシュボードを安全に操作できるようにします。

**ダッシュボードサブスクリプション**  
ダッシュボードをサブスクライブしている場合は、以下のことが行えます。  
+ エキスパートチームが設計したインタラクティブダッシュボードを使用し、サブスクライブする。
+ シンプルですっきりしたインターフェイスを使用できる。
+ ダッシュボードのスナップショットをメールに表示する。
+ 手元にあるデータを使って意思決定することに集中できる。

データに接続したらまたはデータをインポートしたら、データセットを作成し、データを成型および準備して、共有および再利用します。Amazon Quick Sight の開始****ページで**データ**を選択すると、データページで使用可能なデータセットを表示できます。利用可能なデータソースを表示し、**データセット**の作成ページで新しいデータセットを作成できます。これには、**データ**ページで**「データセットの作成**」と**「新しいデータセット**」を選択します。

**Topics**
+ [サポートされているデータソース](supported-data-sources.md)
+ [統合とデータセットを使用してデータに接続する](connecting-to-data-examples.md)
+ [データソースのクォータ](data-source-limits.md)
+ [サポートされているデータ型と値](supported-data-types-and-values.md)
+ [データセットの使用](working-with-datasets.md)
+ [Amazon Quick Sight でのデータソースの使用](working-with-data-sources.md)

# サポートされているデータソース
<a name="supported-data-sources"></a>

Amazon Quick Sight は、分析用のデータを提供するために使用できるさまざまなデータソースをサポートしています。以下のデータソースがサポートされています。

## リレーショナルデータへの接続
<a name="relational-data-sources"></a>

Amazon Quick Sight のデータソースとして、次のいずれかのリレーショナルデータストアを使用できます。
+ Amazon Athena
+ Amazon Aurora
+ AWS Glue データカタログには、Athena や Redshift Spectrum などの AWS Glue データカタログ互換サービスを使用してアクセスできます。
+ Amazon OpenSearch Service
+ Amazon Redshift
+ Amazon Redshift Spectrum
+ Amazon S3
+ Amazon S3 Analytics
+ Apache Impala
+ Apache Spark 2.0 以降
+ AWS IoT Analytics
+ Spark 1.6 以降、バージョン 3.0 までの Databricks (E2 プラットフォームのみ) 
+ Exasol 7.1.2 以降
+ Google BigQuery
+ MariaDB 10.0 以降
+ Microsoft SQL Server 2012 以降
+ MySQL 5.7 以降
**注記**  
2023 年 10 月以降、MySQL コミュニティは MySQL バージョン 5.7 のサポートを廃止しました。つまり、Amazon Quick Sight は MySQL 5.7 の新機能、機能強化、バグ修正、またはセキュリティパッチをサポートしなくなります。既存のクエリワークロードのサポートは、ベストエフォートベースで行われます。Quick Sight のお客様は、Quick Sight で MySQL 5.7 データセットを引き続き使用できますが、MySQL データベース (DB) をメジャーバージョン 8.0 以降にアップグレードすることをお勧めします。Amazon RDS が提供するステートメントを確認するには、「‭[‬Amazon RDS Extended Support opt-in behavior is changing‬」を参照してください。Upgrade your Amazon RDS for MySQL 5.7 database instances before February 29, 2024 to avoid potential increase in charges.](https://repost.aws/articles/ARHdQg4IelQS2uyXkNrINw-A/announcement-amazon-rds-extended-support-opt-in-behavior-is-changing-upgrade-your-amazon-rds-for-mysql-5-7-database-instances-before-february-29-2024-to-avoid-potential-increase-in-charges)」を参照してください。  
Amazon RDS は、Amazon RDS MySQL 8.3 のセキュリティ設定を更新しました。Quick Sight から Amazon RDS MySQL 8.3 への接続は、デフォルトで SSL 対応です。これは MySQL 8.3. 接続で使用できる唯一のオプションです。  
MySQL 接続用の TLS 1.2 には、MySQL バージョン 5.7.28 以降が必要です。5.7.28 未満の MySQL バージョンの場合、Quick Sight は TLS 1.1 にフォールバックします。セキュリティ要件で TLS 1.2 が義務付けられている場合は、MySQL または Aurora MySQL データベースでバージョン 5.7.28 以降が実行されていることを確認してください。
+ Oracle 12c 以降
+ PostgreSQL 9.3.1 以降
**注記**  
Amazon Quick Sight からの PostgreSQL への SCRAM ベースの認証は、RDS がホストする PostgreSQL、Aurora PostgreSQL、および Vanilla PostgreSQL のコネクタでサポートされています。適切な PostgreSQL エンジンバージョンが使用されていて、PostgreSQL for SCRAM で正しい設定が設定されている場合、Quick Sight で追加の設定は必要ありません。Quick Sight から PostgreSQL への SCRAM 認証の確立に問題がある場合は、サポートチケットを作成してください。
+ Presto 0.167 以降
+ Snowflake
+ Starburst
+ Trino
+ Teradata 14.0 以降
+ Timestream

**注記**  
ここに記載されていない追加のデータソースは、サポートされているデータソース経由でソースにリンクするかソースをインポートすることでアクセスできます。

Amazon Redshift クラスター、Amazon Athena データベース、Amazon RDS インスタンスは、 AWSに置かれている必要があります。Amazon Quick Sight からアクセスできるようにするには、他のデータベースインスタンスが次のいずれかの環境にある必要があります。
+ Amazon EC2
+ ローカル (オンプレミス) のデータベース
+ データセンターやインターネット接続可能なその他環境にあるデータ

詳細については、「[Amazon Quick のインフラストラクチャセキュリティ](infrastructure-and-network-access.md)」を参照してください。

## ファイルデータのインポート
<a name="file-data-sources"></a>

Amazon S3 またはローカル (オンプレミス) ネットワークにあるファイルは、データソースとして使用することが可能です。Quick Sight は、次の形式のファイルをサポートしています。
+ CSV と TSV — カンマ区切りおよびタブ区切りのテキストファイル
+ ELF と CLF – 拡張ログ形式と共通ログ形式のファイル
+ JSON - フラットファイルまたは半構造化データファイル
+ XLSX – Microsoft Excel ファイル

Quick Sight は UTF-8 ファイルエンコーディングをサポートしていますが、UTF-8 (BOM を使用) はサポートしていません。

Amazon S3 内にあるファイルで zip または gzip ([www.gzip.org](http://www.gzip.org)) で圧縮されたものは、そのままの状態でインポートできます。それ以外の方法で圧縮された Amazon S3 内のファイルを使用する場合、またはファイルがローカルネットワーク上に置かれている場合は、解凍してからインポートします。

### JSON データ
<a name="json-data-sources"></a>

Amazon Quick Sight は、JSON フラットファイルと JSON 半構造化データファイルをネイティブにサポートします。

ユーザーは、JSON ファイルをアップロードするか、JSON データを含む Amazon S3 バケットに接続することが可能です。Amazon Quick Sight は、JSON ファイルと埋め込み JSON オブジェクトに対してスキーマと型推論を自動的に実行します。次に、JSON をフラット化し、アプリケーションで生成されたデータを分析および視覚化できるようにします。

JSON フラットファイルデータの基本的なサポートには、以下が含まれています。
+ スキーマの推測
+ データ型の判断
+ データのフラット化
+ フラットファイルからの JSON (JSON 埋め込みオブジェクト) の分析

JSON ファイル構造 (.json) のサポートには、次のものがあります。
+ 構造体を含む JSON レコード
+ 配列としてルート要素を含む JSON レコード

`parseJson` 関数を使用して、テキストファイルの JSON オブジェクトから値を抽出することもできます。例えば、CSV ファイルのいずれかのフィールドに JSON オブジェクトが埋め込まれている場合は、指定されたキーバリューペア (KVP) から値を抽出できます。方法の詳細については、「[parseJson](parseJson-function.md)」を参照してください。

以下の JSON 機能はサポートされていません。
+ レコードのリストを含む構造体を持つ JSON の読み取り
+ JSON レコード内の属性のリスト化とオブジェクトのリスト化。これらはインポート中にスキップされます
+ アップロード設定または構成設定のカスタマイズ
+ SQL と分析用の parseJSON 関数
+ 無効な JSON に対するエラーメッセージング
+ JSON 構造からの JSON オブジェクトの抽出
+ 区切られた JSON レコードの読み取り

`parseJson` 関数を使用して、データの準備中にフラットファイルを解析できます。この関数は、有効な JSON 構造とリストから要素を抽出します。

サポートされる JSON 値は次のとおりです。
+ JSON オブジェクト
+ 文字列 (二重引用符付き)
+ 数値 (整数および浮動小数点数)
+ ブール値
+ NULL

## Software as a Service (SaaS) データ
<a name="service-data-sources"></a>

Quick Sight は、直接接続するか、オープン認可 (OAuth) を使用して、さまざまな Software as a Service (SaaS) データソースに接続できます。

直接接続をサポートしている SaaS ソースには以下があります。
+ Jira
+ ServiceNow

SaaS ソースが OAuth を使用している場合、ユーザーは、SaaS のウェブサイトで接続を承認する必要があります。これを機能させるには、Quick Sight がネットワーク経由で SaaS データソースにアクセスできる必要があります。こうしたソースには、以下が含まれます。
+ Adobe Analytics
+ GitHub
+ Salesforce

  Salesforce の次のエディションのレポートまたはオブジェクトは、Amazon Quick Sight のデータソースとして使用できます。
  + Enterprise Edition
  + Unlimited Edition
  + Developer Edition

## ローカルデータソース
<a name="local-data-sources"></a>

オンプレミスデータソースに接続するには、データソースとクイック固有のネットワークインターフェイスを Amazon Virtual Private Cloud (Amazon VPC) に追加する必要があります。適切に設定されると、Amazon VPC に基づく VPC は、ユーザー自身のデータセンターで運用されている従来のネットワークに似たものになります。これにより、リソース間のトラフィックを保護し分離することが可能になります。ネットワーク要素を独自の要件に合わせて定義して制御しながら、クラウドネットワーキングと AWSのスケーラブルなインフラストラクチャの利点も活用できます。

詳細については、「[Amazon Quick のインフラストラクチャセキュリティ](infrastructure-and-network-access.md)」を参照してください。

# 統合とデータセットを使用してデータに接続する
<a name="connecting-to-data-examples"></a>

Amazon Quick Sight をさまざまなタイプのデータソースに接続できます。これには、Software-as-a-Service (SaaS) アプリケーションに保存されたデータ、Amazon S3 バケットに保存されたフラットファイル、Salesforce などのサードパーティーのサービスからのデータ、Athena からのクエリ結果が含まれます。以下の例を使用して、特定のデータソースに接続するための要件の詳細について学びます。

**Topics**
+ [Amazon Athena データを使用したデータセットの作成](create-a-data-set-athena.md)
+ [Amazon Quick Sight での Amazon OpenSearch Service の使用](connecting-to-os.md)
+ [Amazon S3 ファイルを使用したデータセットの作成](create-a-data-set-s3.md)
+ [Apache Spark を使用したデータソースの作成](create-a-data-source-spark.md)
+ [Quick Sight での Databricks の使用](quicksight-databricks.md)
+ [Google BigQuery を使用してデータセットを作成する](quicksight-google-big-query.md)
+ [Google Sheets データソースを使用したデータセットの作成](create-a-dataset-google-sheets.md)
+ [Apache Impala データソースを使用したデータセットの作成](create-a-dataset-impala.md)
+ [Microsoft Excel ファイルを使用したデータセットの作成](create-a-data-set-excel.md)
+ [Presto を使用したデータソースの作成](create-a-data-source-presto.md)
+ [Amazon Quick Sight での Snowflake の使用](connecting-to-snowflake.md)
+ [Amazon Quick Sight での Starburst の使用](connecting-to-starburst.md)
+ [SaaS ソースからのデータソースとデータセットの作成](connecting-to-saas-data-sources.md)
+ [Salesforce からのデータセットの作成](create-a-data-set-salesforce.md)
+ [Amazon Quick Sight での Trino の使用](connecting-to-trino.md)
+ [ローカルテキストファイルを使用したデータセットの作成](create-a-data-set-file.md)
+ [Amazon Quick Sight での Amazon Timestream データの使用](using-data-from-timestream.md)

# Amazon Athena データを使用したデータセットの作成
<a name="create-a-data-set-athena"></a>

Amazon Athena データまたは Athena フェデレーティッドクエリデータに接続する新しいデータセットを作成するには、次の手順に従います。

**Amazon Athena に接続するには**

1. まず、新しいデータセットを作成します。左側のナビゲーションペインから**データ**を選択します。

1. **「作成**」を選択し、**「新しいデータセット**」を選択します。

1. 

   1. 既存の Athena 接続プロファイル (共通) を使用するには、使用する既存のデータソースのカードを選択します。**[選択]** を選択します。

      カードには、Athena データソースアイコンと、接続を作成したユーザーによって指定された名前が表示されています。

   1. 新しい Athena 接続プロファイルを作成するには (まれなケース) 、次の手順を実行します。

      1. **新しいデータソース**を選択し、**Athena **データソースカードを選択します。

      1. [**次へ**] を選択します。

      1. **[Data source name]** (データソース名) に、わかりやすい名前を入力します。

      1. **[Athena workgroup]** (Athena ワークグループ) には、自分のワークグループを選択します。

      1. [**Validate connection (接続を検証)**] を選択して、接続を検証します。

      1. **[データソースを作成]** を選択します。

      1. (オプション) クエリを実行する IAM ロール ARN を選択します。

1. **[Choose your table]** (テーブルの選択) 画面で、以下を実行します。

   1. **[Catalog]** (カタログ)で、以下のいずれかを選択します。
      + Athena フェデレーションクエリを使用している場合は、使用するカタログを選択します。
      + それ以外の場合は、**[AwsDataCatalog]** を選択します。

   1. 次のいずれかを選択します。
      + SQL クエリを作成するには、**[Use custom SQL]** (カスタム SQL を使用) を選択する。
      + データベースとテーブルを選択するには、**[Catalog]** (カタログ) の下のドロップダウンで、自分のデータベースを含むカタログを選択する。次に、**[Database]** (データベース) の下のドロップダウンでデータベースを選択し、データベースで表示された **[Tables]** (テーブル) 一覧からテーブルを選択する。

   適切なアクセス許可を持っていない場合、「You don't have sufficient permissions to connect to this dataset or run this query. (このデータセットに接続するまたはこのクエリを実行するための十分なアクセス許可がありません。)」というエラーメッセージが表示されます。サポートが必要な場合は、クイック管理者にお問い合わせください。詳細については、「[Amazon Athena への接続の認可](athena.md)」を参照してください。

1. **[Edit/Preview data]** (データの編集/プレビュー) を選択します。

1. データセットを作成しテーブルを使用して [**視覚化する**] を選択し、データを分析します。詳細については、「[分析とレポート: Amazon Quick Sight でのデータの視覚化](working-with-visuals.md)」を参照してください。

# Amazon Quick Sight での Amazon OpenSearch Service の使用
<a name="connecting-to-os"></a>

以下は、Amazon Quick Sight を使用して Amazon OpenSearch Service データに接続する方法を示しています。

## OpenSearch Service の新しい Quick Sight データソース接続の作成
<a name="create-connection-to-es"></a>

ここでは、OpenSearch Service に接続する方法について説明しています。

続行する前に、Amazon Quick Sight が Amazon OpenSearch Service に接続する権限を持っている必要があります。接続が有効になっていないと、接続しようとしたときにエラーが発生します。Quick Sight 管理者は、 AWS リソースへの接続を許可できます。

**Quick Sight が OpenSearch Service への接続を開始することを許可するには**

1. 右上のプロファイルアイコンをクリックしてメニューを開き、**高速管理**を選択します。プロファイルメニューに**「高速管理**」オプションが表示されない場合は、Amazon Quick 管理者にお問い合わせください。

1. [**Security & Permissions (セキュリティとアクセス許可)**] で、[**Add or remove (追加または削除)**] を選択します。

1. [**OpenSearch**] オプションを有効にします。

1. **[更新]** を選択します。

OpenSearch Service がアクセス可能になったら、指定されたドメインをユーザーが使用可能にするため、データソースを作成します。

**OpenSearch Service に接続するには**

1. まず、新しいデータセットを作成します。左側のナビゲーションペインから**データ**を選択し、データセット**の作成**と**新規**を選択します。

1. [**Amazon OpenSearch**] データソースカードを選択します。

1. **[Data source name]** (データソース名) で、OpenSearch Service のデータソース接続のために分かりやすい名前を入力します (例: `OpenSearch Service ML Data`)。OpenSearch Service への接続からはデータセットを多数作成することがあるので、名前はシンプルにしておくことをお勧めします。

1. **[Connection type]** (接続タイプ) では、使用するネットワークを選択します。Amazon VPC ベースの仮想プライベートクラウド (VPC) またはパブリックネットワークを使用できます。VPC のリストには、VPC の ID ではなく VPC 接続の名前が記載されています。これらの名前は、クイック管理者が定義します。

1. **[Domain]** (ドメイン) で、接続先の OpenSearch Service ドメインを選択します。

1. **[Validate connection]** (接続を検証) を選択し、OpenSearch Service に正常に接続できていることを確認します。

1. **[Create data source]** (データソースを作成) を選択し、先へ進みます。

1. **[Tables]** (テーブル) で使用するテーブルを選択し、**[Select]** (選択) を選択して、先へ進みます。

1. 次のいずれかを行います。
   + Quick Sight インメモリエンジン ( と呼ばれるSPICE) にデータをインポートするには、 **にインポートSPICEを選択して分析を高速化**します。OpenSearch データのインポートを有効にする方法については、「[Amazon OpenSearch Service への接続の認証](opensearch.md)」を参照してください。
   + データセットを更新するか、分析またはダッシュボードを使用するたびに Quick Sight がデータに対してクエリを実行できるようにするには、**データの直接クエリ**を選択します。

     OpenSearch Service データを使用している公開済みのダッシュボードで自動更新を有効にするには、OpenSearch Service データセットが直接クエリを使用している必要があります。

1. **[Edit/Preview]** (編集/プレビュー) を選択し、**[Save]** (保存) を選択してデータセットを保存し、閉じます。

## OpenSearch Service データでのアクセス許可の管理
<a name="dataset-permissions-for-es"></a>

以下の手順では、同じ OpenSearch Service データソースに対するアクセス許可の表示、追加、取り消しの方法について説明します。追加するユーザーは、追加する前に Quick Sight でアクティブユーザーである必要があります。

**データソースに対するアクセス許可を編集するには**

1. 左側の**データ**を選択し、下にスクロールして Amazon OpenSearch Service 接続のデータソースカードを見つけます。例えば `US Amazon OpenSearch Service Data` などです。

1. **[Amazon OpenSearch]** データセットを選択します。

1. [Dataset details] (データセットの詳細) ページが開くので、**[Permissions]** (許可) タブを選択します。

   現在のアクセス許可の一覧が表示されます。

1. アクセス許可を追加するには、**[Add users & groups]** (ユーザーとグループの追加) を選択し、続いて以下の手順を実行します。

   1. 同じデータセットの使用を許可するユーザーまたはグループを追加します。

   1. 目的のユーザーをすべて追加したら、それらのユーザーに適用する **[Permission]** (アクセス許可) を選択します。

1. (オプション) アクセス許可を編集するには、**[Viewer]** (ビューワー) または **[Owner]** (所有者) を選択します。
   + 読み取りアクセスを許可する **[Viewer]** (ビューワー) を選択します。
   + **所有者**を選択して、そのユーザーがこの Quick Sight データセットを編集、共有、または削除できるようにします。

1. (オプション) アクセス許可を取り消すときは、**[Revoke access]** (アクセス権の取り消し) を選択します。アクセス権が取り消された人は、このデータソースから新しいデータセットを作成できなくなります。ただし、その人の既存のデータセットからは、引き続きこのデータソースにアクセスすることができます。

1. 完了したら、**閉じる** を選択します。

## OpenSearch Service の新しい Quick Sight データセットの追加
<a name="create-dataset-using-es"></a>

OpenSearch Service の既存のデータソース接続を取得した後、分析のための OpenSearch Service データセットを作成できるようになります。

**OpenSearch Service を使用してデータセットを作成するには**

1. 開始ページから、**データ**、**作成**、**新しいデータセット**を選択します。

1. 下部にある、OpenSearch Service 接続用のデータソースカードまでスクロールします。データソースが多数ある場合は、ページ上部の検索バーを使って、名前に部分一致するデータソースを検索できます。

1. [**Amazon OpenSearch**] のデータソースカードを選択し、[**データセットの作成**] をクリックします。

1. **[Tables]** (テーブル) で、使用する OpenSearch Service インデックスを選択します。

1. **[Edit/Preview]** (編集/プレビュー) を選択します。

1. **[Save]** (保存) を選択し、データセットを保存して閉じます。

## OpenSearch Service データの分析への追加
<a name="open-analysis-add-dataset-for-es"></a>

OpenSearch Service データセットが利用可能になったら、Quick Sight 分析に追加できます。これを開始する前に、使用する OpenSearch Service のデータが含まれているデータセットが、既に用意されていることを確認します。

**OpenSearch Service のデータを分析に追加するには**

1. 左側で **[Analyses]** (分析) を選択します。

1. 次のいずれかを行ってください。
   + 新しい分析を作成するときは、右側で **[New analysis]** (新しい分析) を選択します。
   + 既存の分析に追加するときは、編集する分析を開きます。
     + 左上の鉛筆アイコンを選択します。
     + **[Add data set]** (データセットを追加) を選択します。

1. 追加する OpenSearch Service データセットを選択します。

   可視化のために OpenSearch Service を使用する方法については、「[OpenSearch Service の使用に関する制限](#limitations-for-es)」を参照してください。

1. 詳細については、「[分析での作業](https://docs.aws.amazon.com/quicksight/latest/user/working-with-analyses.html)」を参照してください。

## OpenSearch Service の使用に関する制限
<a name="limitations-for-es"></a>

OpenSearch Service データセットの使用には、以下の制限が適用されます。
+ OpenSearch Service データセットでは、ビジュアルタイプ、ソートオプション、フィルターオプションのサブセットがサポートされます。
+ OpenSearch Service データを使用している公開済みのダッシュボードで自動更新を有効にするには、OpenSearch Service データセットが直接クエリを使用している必要があります。
+ マルチサブクエリ操作はサポートされていません。視覚化中のエラーを回避するには、フィールドウェルに複数のフィールドを追加せず、視覚化ごとに 1 つまたは 2 つのフィールドを使用し、**[カラー]** フィールドウェルを使用しないようにします。
+ カスタム SQL はサポートされていません。
+ クロスデータセット結合と自己結合はサポートされていません。
+ 集計フィールドはサポートされていません。
+ テキストフィールドはサポートされていません。
+ [other (その他)] カテゴリはサポートされていません。カテゴリで「その他」をサポートしている可視化機能で OpenSearch Service データセットを使用する場合は、ビジュアル上のメニューから、「その他」カテゴリの無効化を行います。

# Amazon S3 ファイルを使用したデータセットの作成
<a name="create-a-data-set-s3"></a>

Amazon S3 から 1 つ以上のテキストファイル (.csv、.tsv、.clf、.elf) を使用してデータセットを作成するには、Quick Sight のマニフェストを作成します。Quick Sight はこのマニフェストを使用して、使用するファイルと、それらのインポートに必要なアップロード設定を識別します。Amazon S3 を使用してデータセットを作成すると、ファイルデータが [SPICE](spice.md) に自動的にインポートされます。

ファイルを読み取る Amazon S3 バケットへのアクセスを Quick Sight に許可する必要があります。Quick Sight に AWS リソースへのアクセスを許可する方法については、「」を参照してください[AWS データソースへの Amazon Quick Sight アクセスの設定](access-to-aws-resources.md)。

**Topics**
+ [Amazon S3 のマニフェストファイルでサポートされている形式](supported-manifest-file-format.md)
+ [Amazon S3 データセットを作成する](create-a-data-set-s3-procedure.md)
+ [別の AWS アカウントの S3 ファイルを使用するデータセット](using-s3-files-in-another-aws-account.md)

# Amazon S3 のマニフェストファイルでサポートされている形式
<a name="supported-manifest-file-format"></a>

JSON マニフェストファイルを使用して、Quick Sight にインポートする Amazon S3 のファイルを指定します。これらの JSON マニフェストファイルは、Amazon Redshift データベースデベロッパーガイドの「マニ[フェストを使用してデータファイルを指定する](https://docs.aws.amazon.com/redshift/latest/dg/loading-data-files-using-manifest.html)」で説明されている Quick Sight 形式または「Amazon Redshift 形式」のいずれかを使用できます。 **Amazon Redshift マニフェストファイル形式を使用する際に、Amazon Redshift を使用している必要はありません。

Quick Sight マニフェストファイルを使用する場合は、 などの .json 拡張子が必要です`my_manifest.json`。Amazon Redshift 形式のマニフェストファイルを使用する場合は、任意の拡張子を付けることができます。

Amazon Redshift マニフェストファイルを使用する場合、Quick Sight は Amazon Redshift と同様にオプションの `mandatory` オプションを処理します。関連付けられたファイルが見つからない場合、Quick Sight はインポートプロセスを終了し、エラーを返します。

インポート用に選択するファイルは、文字区切り形式 (.csv や .tsv など) 、ログ (.clf)、拡張ログ (.elf) 形式、または JSON (.json) である必要があります。1 つのマニフェストファイルで識別されるすべてのファイルでは、同じファイル形式を使用する必要があります。さらに、列の数とタイプが同じである必要があります。Quick Sight は UTF-8 ファイルエンコーディングをサポートしていますが、バイトオーダーマーク (BOM) 付きの UTF-8 はサポートしていません。JSON ファイルをインポートする場合は、`globalUploadSettings` に `format` を指定する必要がありますが、`delimiter`、`textqualifier`、`containsHeader` を指定する必要がありません。

指定したファイルが、Quick Sight アクセスを許可した Amazon S3 バケットにあることを確認します。Quick Sight に AWS リソースへのアクセスを許可する方法については、「」を参照してください[AWS データソースへの Amazon Quick Sight アクセスの設定](access-to-aws-resources.md)。

## Quick Sight のマニフェストファイル形式
<a name="quicksight-manifest-file-format"></a>

Quick Sight マニフェストファイルは、次の JSON 形式を使用します。

```
{
    "fileLocations": [
        {
            "URIs": [
                "uri1",
                "uri2",
                "uri3"
            ]
        },
        {
            "URIPrefixes": [
                "prefix1",
                "prefix2",
                "prefix3"
            ]
        }
    ],
    "globalUploadSettings": {
        "format": "JSON",
        "delimiter": ",",
        "textqualifier": "'",
        "containsHeader": "true"
    }
}
```

`fileLocations` 要素内のフィールドではインポートするファイルを指定し、`globalUploadSettings` 要素内のフィールドではそれらのファイルのインポート設定 (フィールド区切り文字など) を指定します。

マニフェストファイルの要素について以下に説明します。
+ **fileLocations** - インポートするファイルを指定するときはこの要素を使用します。`URIs` 配列と `URIPrefixes` 配列のいずれかまたは両方を使用してファイルを指定できます。そのいずれかで、値を 1 つ以上指定する必要があります。
  + **URI** - インポートする特定のファイルの URI をリスト化するときは、この配列を使用します。

    Quick Sight は、任意の にある Amazon S3 ファイルにアクセスできます AWS リージョン。ただし、Amazon S3 バケットの AWS リージョンがクイックアカウントで使用されているリージョンと異なる場合は、そのリージョンを識別する URI 形式を使用する必要があります。

    以下の形式の URI がサポートされています。  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-manifest-file-format.html)
  + **URIPrefixes** - S3 バケットおよびフォルダの URI プレフィックスをリスト化するときは、この配列を使用します。指定したバケットまたはフォルダ内のすべてのファイルがインポートされます。Quick Sight は、子フォルダからファイルを再帰的に取得します。

    Quick Sight は、任意の にある Amazon S3 バケットまたはフォルダにアクセスできます AWS リージョン。S3 バケットがクイックアカウントで使用されているものとは異なる AWS リージョン 場合は、S3 バケットを識別する URI プレフィックス形式を使用してください。

    以下の形式の URI プレフィックスがサポートされています。  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-manifest-file-format.html)
+ **globalUploadSettings** - (オプション) この要素は、Amazon S3 ファイルのインポート設定 (フィールド区切り文字など) を指定するときに使用します。この要素が指定されていない場合、Quick Sight はこのセクションのフィールドにデフォルト値を使用します。
**重要**  
ログ形式 (.clf) と拡張ログ形式 (.elf) のファイルでは、このセクションの **format** フィールドのみが適用されるため、その他のフィールドは省略できます。他のフィールドを含めている場合、それらの値は無視されます。
  + **format** - (オプション) インポートするファイルの形式を指定します。有効な形式は、**CSV**、**TSV**、**CLF**、**ELF**、および **JSON** です。デフォルト値は **CSV** です。
  + **delimiter** - (オプション) ファイルのフィールド区切り文字を指定します。この値は、`format` フィールドで指定しているファイルタイプに対応している必要があります。有効な値は、.csv ファイルではカンマ (**,**)、.tsv ファイルではタブ (**\$1t**) です。デフォルト値はカンマ (**,**) です。
  + **textqualifier** (オプション) ファイルのテキスト修飾子を指定します。有効な形式は、一重引用符 (**'**)、二重引用符 (**\$1"**) です。先頭のバックスラッシュは、JSON で二重引用符に必須のエスケープ文字です。デフォルト値は二重引用符 (**\$1"**) です。テキストにテキスト修飾子が必要ない場合は、このプロパティを含めないでください。
  + **containsHeader** - (オプション) ファイルにヘッダー行を入れるかどうかを指定します。有効な形式は、**true** または **false** です。デフォルト値は **true** です。

### Quick Sight のマニフェストファイルの例
<a name="quicksight-manifest-file-examples"></a>

以下は、完了した Quick Sight マニフェストファイルの例です。

次の例では、インポートする 2 つ .csv ファイルを特定するマニフェストファイルを示しています。これらのファイルでは、テキスト修飾子として二重引用符を使用しています。`format`、`delimiter`、および `containsHeader` フィールドは、デフォルト値のままで問題ないため、省略しています。

```
{
    "fileLocations": [
        {
            "URIs": [
                "https://yourBucket.s3.amazonaws.com/data-file.csv",
                "https://yourBucket.s3.amazonaws.com/data-file-2.csv"
            ]
        }
    ],
    "globalUploadSettings": {
        "textqualifier": "\""
    }
}
```

次の例では、インポートする 1 つの .tsv ファイルを特定するマニフェストファイルを示しています。このファイルには、インポート用の追加の .tsv ファイルが含まれる別の AWS リージョンのバケットも含まれます。`textqualifier` および `containsHeader` フィールドは、デフォルト値のままで問題ないため、省略しています。

```
{
    "fileLocations": [
        {
            "URIs": [
                "https://s3.amazonaws.com/amzn-s3-demo-bucket/data.tsv"
            ]
        },
        {
            "URIPrefixes": [
                "https://s3-us-east-1.amazonaws.com/amzn-s3-demo-bucket/"
            ]
        }
    ],
    "globalUploadSettings": {
        "format": "TSV",
        "delimiter": "\t"
    }
}
```

次の例では、インポートする .clf ファイルを含む 2 つのバケットを識別します。1 つはクイックアカウント AWS リージョン と同じ にあり、もう 1 つは別の にあります AWS リージョン。`delimiter`、`textqualifier`、および `containsHeader` フィールドは、ログ形式のファイルには適用されないため、省略しています。

```
{
    "fileLocations": [
        {
            "URIPrefixes": [
                "https://amzn-s3-demo-bucket1.your-s3-url.com",
                "s3://amzn-s3-demo-bucket2/"
            ]
        }
    ],
    "globalUploadSettings": {
        "format": "CLF"
    }
}
```

次の例では、Amazon Redshift 形式を使用して、インポートする .csv ファイルを特定しています。

```
{
    "entries": [
        {
            "url": "https://amzn-s3-demo-bucket.your-s3-url.com/myalias-test/file-to-import.csv",
            "mandatory": true
        }
    ]
}
```

次の例では、Amazon Redshift 形式を使用して、インポートする 2 つの JSON ファイルを特定しています。

```
{
    "fileLocations": [
        {
            "URIs": [
                "https://yourBucket.s3.amazonaws.com/data-file.json",
                "https://yourBucket.s3.amazonaws.com/data-file-2.json"
            ]
        }
    ],
    "globalUploadSettings": {
        "format": "JSON"
    }
}
```

# Amazon S3 データセットを作成する
<a name="create-a-data-set-s3-procedure"></a>

**Amazon S3 データセットを作成するには**

1. [データソースのクォータ](data-source-limits.md) をチェックし、ターゲットのファイルセットがデータソースのクォータを超えていないことを確認します。

1. 「[Amazon S3 のマニフェストファイルでサポートされている形式](supported-manifest-file-format.md)」で指定されているいずれかの形式を使用して、インポートするファイルを特定するためのマニフェストファイルを作成します。

1. マニフェストファイルをローカルディレクトリに保存するか、Amazon S3 にアップロードします。

1. クイックスタートページで、**データ**を選択します。

1. **データ**ページで、データセット**の作成**と**新規**作成を選択します。

1. Amazon S3 アイコンを選択し、次**へ**を選択します。

1. [**Data source name (データソース名)**] に、データソースの説明を入力します。この名前はこのデータソースを他と区別しやすくするためです。

1. [**Upload a manifest file**] で、以下のいずれかを実行します。
   + ローカルのマニフェストファイルを使用するには、[**Upload**]、[**Upload a JSON manifest file**] の順に選択します。[**Open**] で、ファイルを選択してから [**Open**] を選択します。
   + Amazon S3 のマニフェストファイルを使用するには、**[URL]** を選択し、マニフェストファイルの URL を入力します。Amazon S3 コンソールで既存のマニフェストファイルの URL を検索するには、該当するファイルに移動し、そのファイルを選択します。リンク URL を含むプロパティパネルが表示されます。URL をコピーして Quick Sight に貼り付けることができます。

1. **接続** を選択します。

1. 接続が完了したことを確認するには、[**Edit/Preview data**] を選択します。または、データをそのまま使用する分析を作成するには、[**Visualize**] を選択します。

   **[Edit/Preview data]** (データの編集/プレビュー) を選択した場合は、データの準備の一環としてデータセット名を指定できます。それ以外の場合、データセット名はマニフェストファイルの名前と一致します。

   データ準備の詳細については、「[Amazon Quick Sight でのデータの準備](preparing-data.md)」を参照してください。

## 複数の Amazon S3 ファイルに基づいてデータセットを作成する
<a name="data-sets-based-on-multiple-s3-files"></a>

Quick Sight 内の Amazon S3 バケットのファイルをマージまたは結合するには、次のいずれかの方法を使用できます。
+ **マニフェストを使用してファイルを結合する** - この場合、各ファイルのフィールド (列) 数は同じでなければなりません。データ型がファイルの同じ位置のフィールド間で一致している必要があります。例えば、最初のフィールドはそれぞれのファイルで同じデータ型ある必要があります。2 番目のフィールド、3 番目のフィールド、それ以降も同様です。Quick Sight は、最初のファイルからフィールド名を取得します。

  ファイルはマニフェストに明示的にリストされている必要があります。ただし、同じ Amazon S3 バケット内にある必要はありません。

  さらに、ファイルは [Amazon S3 のマニフェストファイルでサポートされている形式](supported-manifest-file-format.md) に説明されているルールに従う必要があります。

  マニフェストを使用してファイルを組み合わせることの詳細については、「[Amazon S3 ファイルを使用したデータセットの作成](create-a-data-set-s3.md)」を参照してください。
+ **マニフェストを使用せずにファイルを統合する** - 複数のファイルを、マニフェスト内に個別にリスト化せずに、1 個に統合するときは、Athena を使用します。この方法では、データベースのテーブルにある場合のように、テキストファイルを単にクエリすることができます。詳細については、ビッグデータブログの「[S3 のデータを Amazon Athena を使って分析する](https://aws.amazon.com/blogs/big-data/analyzing-data-in-s3-using-amazon-athena/)」記事を参照してください。
+ **スクリプトを使用してファイルをインポートする前に添付する** - ファイルをアップロードする前に、結合用に設計されたスクリプトを使用します。

# 別の AWS アカウントの S3 ファイルを使用するデータセット
<a name="using-s3-files-in-another-aws-account"></a>

このセクションでは、Quick Sight を使用して別の AWS アカウントの Amazon S3 ファイルにアクセスできるようにセキュリティを設定する方法について説明します。

ユーザーが、別のアカウントにあるファイルにアクセスするには、別のアカウントの所有者が、先に、Amazon S3 でこのユーザーにファイル読み取りのアクセスを許可するように設定しておく必要があります。次に、Quick Sight で、共有されたバケットへのアクセスを設定する必要があります。この両方のステップが完了した後に、マニフェストを使用してデータセットを作成できるようになります。

**注記**  
 パブリックに共有されているファイルにアクセスするには、特別なセキュリティを設定する必要はありません。ただし、マニフェストファイルは必要です。

**Topics**
+ [別のクイックアカウントからのアクセスを許可するように Amazon S3 を設定する](#setup-S3-to-allow-access-from-a-different-quicksight-account)
+ [別の AWS アカウントの Amazon S3 ファイルにアクセスするための Quick Sight の設定](#setup-quicksight-to-access-S3-in-a-different-account)

## 別のクイックアカウントからのアクセスを許可するように Amazon S3 を設定する
<a name="setup-S3-to-allow-access-from-a-different-quicksight-account"></a>

このセクションでは、別の AWS アカウントの Quick Sight がアクセスできるように Amazon S3 ファイルでアクセス許可を設定する方法について説明します。

Quick Sight アカウントから別のアカウントの Amazon S3 ファイルにアクセスする方法については、「」を参照してください[別の AWS アカウントの Amazon S3 ファイルにアクセスするための Quick Sight の設定](#setup-quicksight-to-access-S3-in-a-different-account)。S3 でのアクセス許可の詳細については、「[Amazon S3 での Identity and Access Management](https://docs.aws.amazon.com/AmazonS3/latest/dev/s3-access-control.html)」と「[How do I set permissions on an object?](https://docs.aws.amazon.com/AmazonS3/latest/user-guide/set-object-permissions.html)」(オブジェクトにアクセス許可を設定するにはどうしたらよいですか?) を参照してください。

次の手順を使用して、S3 コンソールからこのアクセスを設定できます。または、 を使用する AWS CLI か、スクリプトを記述することで、アクセス許可を付与できます。共有するファイルが多数ある場合は、代わりに `s3:GetObject` アクションで S3 バケットポリシーを作成できます。バケットポリシーを使用するには、ポリシーをファイルのアクセス許可ではなくバケットのアクセス許可に追加します。バケットポリシーについては、「*Amazon S3 デベロッパーガイド*」の「[バケットポリシーの例](https://docs.aws.amazon.com/AmazonS3/latest/dev/example-bucket-policies.html)」を参照してください。

**S3 コンソールから別のクイックアカウントからのアクセスを設定するには**

1. 共有する AWS アカウントの E メールアドレスを取得します。または、正規ユーザー ID を取得して使用できます。正規ユーザー ID の詳細については、「[AWS 全般のリファレンス](https://docs.aws.amazon.com/general/latest/gr/acct-identifiers.html)」の「*AWS アカウント ID*」を参照してください。

1. にサインイン AWS マネジメントコンソール し、[https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/) で Amazon S3 コンソールを開きます。

1. Quick Sight と共有したい Amazon S3 バケットを見つけます。**[アクセス許可]** を選択します。

1. **アカウントの追加**を選択し、共有する AWS アカウントの E メールアドレスを入力するか、正規ユーザー ID を貼り付けます。この E メールアドレスは、 AWS アカウントのプライマリアドレスである必要があります。

1. **[Read bucket permissions]** (バケットの読み取りアクセス許可) および **[List objects]** (オブジェクトのリスト化) の両方に対して、**[Yes]** (はい) を選択します。

   [**保存**] を選択して確定します。

1. 共有するファイルを見つけ、ファイルのアクセス許可設定を開きます。

1. 共有する AWS アカウントの E メールアドレスまたは正規ユーザー ID を入力します。この E メールアドレスは、 AWS アカウントのプライマリメールアドレスである必要があります。

1. Quick Sight がアクセスする必要がある各ファイルの**オブジェクト読み取り**アクセス許可を有効にします。

1. ファイルが使用可能になったことを Quick ユーザーに通知します。

## 別の AWS アカウントの Amazon S3 ファイルにアクセスするための Quick Sight の設定
<a name="setup-quicksight-to-access-S3-in-a-different-account"></a>

このセクションでは、別の AWS アカウントの Amazon S3 ファイルにアクセスできるように Quick Sight を設定する方法について説明します。他のユーザーがクイックアカウントから Amazon S3 ファイルにアクセスできるようにする方法については、「」を参照してください[別のクイックアカウントからのアクセスを許可するように Amazon S3 を設定する](#setup-S3-to-allow-access-from-a-different-quicksight-account)。

Quick Sight から別のアカウントの Amazon S3 ファイルにアクセスするには、次の手順に従います。この手順を使用するには、別の AWS アカウントのユーザーが、その Amazon S3 バケット内のファイルを、お客様と共有する必要があります。

**Quick Sight から別のアカウントの Amazon S3 ファイルにアクセスするには**

1. 別の AWS アカウントのユーザーが、問題の S3 バケットへの読み取りおよび書き込みアクセス許可をアカウントに付与していることを確認します。

1. プロファイルアイコンを選択し、**クイックサイトの管理**を選択します。

1. [**Security & permissions (セキュリティとアクセス許可)**] を選択します。

1. ** AWS サービスへのクイックサイトアクセス**で、**管理**を選択します。

1. **[Select S3 buckets]** (S3 バケットの選択) を選択します。

1. **[Select Amazon S3 buckets]** (Amazon S3 バケットの選択) 画面で、**[S3 buckets you can access across AWS]** ( 全体でアクセスできる S3 バケット) タブを選択します。

   デフォルトのタブには、**Quick Sight アカウントにリンクされた S3 バケットという名前が付けられています**。クイックアカウントがアクセスできるすべてのバケットが表示されます。

1. 次のいずれかを行います。
   + 使用することが自分に許可されているバケットをすべて追加するには、**[他の AWS アカウントからアクセスできるバケットを選択]** を選択します。
   + 追加する Amazon S3 バケットが 1 つ以上ある場合は、その名前を入力します。Amazon S3 バケットの一意の名前と正確に一致している必要があります。

     適切なアクセス許可がない場合は「We can't connect to this S3 bucket。指定する S3 バケットが、 AWS このクイックアカウントの作成に使用したアカウントに関連付けられていることを確認します。」 このエラーメッセージは、アカウントアクセス許可または Quick Sight アクセス許可がない場合に表示されます。
**注記**  
Amazon Athena を使用するには、Quick Sight が Athena が使用する Amazon S3 バケットにアクセスする必要があります。  
ここで 1 つずつ追加することも、**他の AWS アカウントからアクセス可能なバケットを選択**オプションを使用することもできます。

1. [**Select buckets**] を選択して、選択を確定します。

1. Amazon S3 に基づいて新しいデータセットを作成し、マニフェストファイルをアップロードします。Amazon S3 データセットの詳細については、[Amazon S3 ファイルを使用したデータセットの作成](create-a-data-set-s3.md) を参照してください。

# Apache Spark を使用したデータソースの作成
<a name="create-a-data-source-spark"></a>

Quick Sight を使用して Apache Spark に直接接続することも、Spark SQL を使用して Spark に接続することもできます。クエリの結果、またはテーブルやビューへの直接リンクを使用して、Quick Sight でデータソースを作成します。Spark 経由でデータを直接クエリする、またはクエリの結果を [SPICE](spice.md) にインポートすることができます。

Spark 製品で Quick Sight を使用する前に、Spark for Quick Sight を設定する必要があります。

Quick Sight では、Spark バージョン 2.0 以降で使用できる LDAP を使用して Spark サーバーを保護し、認証する必要があります。Spark が認証されていないアクセスを許可するように設定されている場合、Quick Sight はサーバーへの接続を拒否します。Quick Sight を Spark クライアントとして使用するには、Spark と連携するように LDAP 認証を設定する必要があります。

そのセットアップ方法については、Spark のドキュメントに記載されています。開始するには、HTTPS 経由のフロントエンド LDAP 認証を有効にするように設定する必要があります。Spark に関する一般的な情報については、[Apache Spark のウェブサイト](http://spark.apache.org/)を参照してください。Spark とセキュリティに的を絞った情報については、Spark ドキュメントの「[Spark Security](http://spark.apache.org/docs/latest/security.html)」を参照してください。

Quick Sight アクセス用にサーバーが設定されていることを確認するには、「」の手順に従います[ネットワークとデータベースの設定要件](configure-access.md)。

# Quick Sight での Databricks の使用
<a name="quicksight-databricks"></a>

このセクションでは、Quick Sight から Databricks に接続する方法について説明します。

**Databricks に接続するには**

1. まず、新しいデータセットを作成します。左側のナビゲーションペインから**データ**を選択します。

1. **Create** then **New Dataset** を選択します。

1. **[Databricks]** (データブリック) データソースカードを選択します。

1. **[Data source name]** (データソース名) に、Databricks のデータソース接続のための分かりやすい名前を入力します (例: `Databricks CS`)。Databricks への接続から多数のデータセットを作成できるようにするため、名前はシンプルにしておくことをお勧めします。

1. **[Connection type]** (接続タイプ) で、使用しているネットワークのタイプを選択します。
   + **パブリックネットワーク** — データがパブリックに共有されている場合。
   + **VPC** — データが VPC 内にある場合。
**注記**  
VPC を使用していて、リストに表示されない場合は、管理者に確認してください。

1.  **[Database server]** (データベースサーバー) には、Databricks 接続の詳細で指定されている **[Hostname of workspace]** (ワークスペースのホスト名) を入力します。

1.  **[HTTP Path]** (HTTP パス) には、Databricks 接続の詳細で指定されている **[Partial URL for the spark instance]** (スパークインスタンスの部分 URL) を入力します。

1.  **[Port]** (ポート) には、Databricks 接続の詳細で指定されている **[port]** (ポート) を入力します。

1.  **[Username]** (ユーザー名) と **[Password]** (パスワード) に、接続認証情報を入力します。

1.  接続が機能していることを確認するには、**[Validate connection]** (接続を検証) をクリックします。

1.  完了後データソースを作成するには、**[Create data source]** (データソースの作成) をクリックします。

## Databricks 用の新しい Quick Sight データセットの追加
<a name="quicksight-databricks-create-dataset"></a>

Databricks データの既存のデータソース接続を取得した後、分析に使用する Databricks データセットを作成できるようになります。

**Databricks を使用してデータセットを作成するには**

1. 左側の**データ**を選択し、下にスクロールして Databricks 接続のデータソースカードを見つけます。データソースが多数ある場合は、ページ上部の検索バーを使って、名前に部分一致するデータソースを検索できます。

1. **[Databricks]** (データブリック) のデータソースカードを選択し、**[Create data set]** (データセットの作成) をクリックします。

1. 接続するテーブルを指定するには、まず使用する Catalog と Schema を選択します。**[Tables]** (テーブル) で、使用するテーブルを選択します。独自の SQL ステートメントを使用したい場合は、**[Use custom SQL]** (カスタム SQL を使用する) を選択します。

1. **[Edit/Preview]** (編集/プレビュー) を選択します。

1. (オプション) さらにデータを追加するときは、以下の手順を実行します。

   1. 右上にある **[Add data]** (データを追加) を選択します。

   1. 別のデータに接続するときは、**[Switch data source]** (データソースの切り替え) を選択し、別のデータセットを選択します。

   1. UI のプロンプトに従ってデータの追加を完成させます。

   1. 新しいデータを同じデータセットに追加したら、**[Configure this join]** (この結合を設定します) (2 つの赤いドット) を選択します。追加した各テーブルで結合をセットアップします。

   1. 計算フィールドを追加するときは、**[Add calculated field]** (計算フィールドを追加) を選択します。

   1. SageMaker AI からモデルを追加するときは、**[SageMaker によるオーグメント]** を選択します。このオプションは Quick Enterprise Edition でのみ使用できます。

   1. 省略したいフィールドがあるときは、チェックボックスをオフにします。

   1. 変更するデータ型があれば更新します。

1. 完了したら、**[Save]** (保存) を選択し、データセットを保存して閉じます。

## Databricks を接続するための Quick Sight 管理者ガイド
<a name="quicksight-databricks-administration-setup"></a>

Amazon Quick Sight を使用して Databricks に接続できます AWS。Marketplace または Databricks ウェブサイトから にサインアップした AWS かどうかにかかわらず、 で AWS Databricks に接続できます。

Databricks に接続する前に、接続に必要な既存のリソースを作成または特定します。このセクションは、Quick Sight から Databricks に接続するために必要なリソースを収集するのに役立ちます。
+ Databricks 接続の詳細を取得する方法については、「[Databricks ODBC and JDBC connections](https://docs.databricks.com/integrations/jdbc-odbc-bi.html#get-server-hostname-port-http-path-and-jdbc-url)」(Databricks の ODBC 接続と JDBC 接続) をご覧ください。
+ 認証用の Databricks 認証情報 (個人アクセストークンまたはユーザー名とパスワード) を取得する方法については、「[Databricks documentation](https://docs.databricks.com/index.html)」(Databricks ドキュメント) の「[Authentication requirements](https://docs.databricks.com/integrations/bi/jdbc-odbc-bi.html#authentication-requirements)」(認証要件) を参照してください。

  Databricks クラスターに接続するには `Can Attach To` と `Can Restart` の権限が必要です。これらの権限は Databricks で管理されます。詳細については、「[Databricks documentation](https://docs.databricks.com/index.html)」(Databricks ドキュメント) の「[Permission Requirements](https://docs.databricks.com/integrations/jdbc-odbc-bi.html#permission-requirements)」(権限要件) を参照してください。
+ Databricks のプライベート接続を設定する場合は、Quick Sight で使用する VPC を設定する方法の詳細については、Quick Sight ドキュメントの[「Amazon Quick Sight を使用した VPC への接続](https://docs.aws.amazon.com/quicksight/latest/user/working-with-aws-vpc.html)」を参照してください。接続が表示されない場合は、ネットワークに「[inbound endpoints for Amazon Route 53](https://docs.aws.amazon.com/quicksight/latest/user/vpc-route-53.html)」(Amazon Route 53 のインバウンドエンドポイント) が開いていることをシステム管理者に確認してください。Databricks ワークスペースのホスト名はパブリック IP を使用するため、Route 53 セキュリティグループの DNS ポート 53 でのトラフィックを許可するには、DNS TCP と DNS UDP のインバウンドルールとアウトバウンドルールが必要です。管理者は 2 つのインバウンドルールを含むセキュリティグループを作成する必要があります。1 つは VPC CIDR へのポート 53 の DNS (TCP) 用で、もう 1 つは VPC CIDR へのポート 53 の DNS (UDP) 用です。

  パブリック接続の代わりに PrivateLink を使用している場合の Databricks 関連の詳細については、[Databricks ドキュメント](https://docs.databricks.com/index.html)の[「Enable AWS PrivateLink](https://docs.databricks.com/administration-guide/cloud-configurations/aws/privatelink.html)」を参照してください。

# Google BigQuery を使用してデータセットを作成する
<a name="quicksight-google-big-query"></a>

**注記**  
Quick Sight が から受信した情報を使用して転送する場合Google APIs、[GoogleAPI サービスユーザーデータポリシー](https://developers.google.com/terms/api-services-user-data-policy)に従います。

Google BigQuery は、お客様がデータの管理と分析に使用するフルマネージド型のサーバーレスデータウェアハウスです。Google BigQuery のお客様は SQL を使用して、インフラストラクチャ管理なしでデータをクエリします。

## Google BigQuery でデータソース接続を作成する
<a name="quicksight-google-big-query-connect"></a>

**前提条件**

作業を始める前に、以下のものが揃っていることを確認してください。Google BigQuery でデータソース接続を作成するには、これらがすべて必要です。
+ **プロジェクト ID** – Google アカウントに関連付けられたプロジェクト ID。これを見つけるには、Google Cloudコンソールに移動し、Quick Sight に接続するプロジェクトの名前を選択します。新しいウィンドウに表示されるプロジェクト ID をコピーし、後で使用するために記録します。
+ **データセットリージョン** – Google BigQuery プロジェクトが存在する Google リージョン。データセットリージョンを検索するには、Google BigQuery コンソールに移動し、**[エクスプローラー]** を選択します。接続するプロジェクトを見つけて展開し、使用するデータセットを選択します。ポップアップが開き、データセットリージョンが表示されます。
+ **Google アカウントログイン認証情報** – Google アカウントのログイン認証情報。この情報がない場合は、Google アカウントの管理者に問い合わせてください。
+ アクセス**Google BigQuery許可** – Googleアカウントを Quick Sight に接続するには、Googleアカウントに次のアクセス許可があることを確認します。
  + `Project` レベルの `BigQuery Job User`。
  + `Dataset` または `Table` レベルの `BigQuery Data Viewer`。
  + `Project` レベルの `BigQuery Metadata Viewer`。

前述の前提条件情報を取得する方法については、「Unlock [the power of unified business intelligence with Google Cloud BigQuery and Quick Sight](https://aws.amazon.com/blogs/business-intelligence/unlock-the-power-of-unified-business-intelligence-with-google-cloud-bigquery-and-amazon-quicksight/)」を参照してください。

クイックアカウントをGoogle BigQueryデータソースに接続するには、次の手順に従います。

**Quick Sight からGoogle BigQueryデータソースへの新しい接続を作成するには**

1. [クイックコンソール](https://quicksight.aws.amazon.com/)を開きます。

1. 左側のナビゲーションペインで、**データ**を選択します。

1. **Create** を選択し、**New Dataset** を選択します。

1. **[Google BigQuery]** タイルを選択します。

1. 前の前提条件セクションで記録したデータソースの詳細を追加します。
   + **データソース名** – データソースの名前。
   + **プロジェクト ID** – Google Platform プロジェクト ID。このフィールドでは、大文字と小文字が区別されます。
   + **データセットリージョン** – 接続するプロジェクトの Google クラウドプラットフォームデータセットリージョン。

1. [**サインイン**] を選択します。

1. 新しいウィンドウが開いたら、接続する Google アカウントのログイン認証情報を入力します。

1. **続行** を選択して、 への Quick Sight アクセスを許可しますGoogle BigQuery。

1. 新しいデータソース接続を作成したら、次の手順の[Step 4](#gbq-step-4) に進みます。

## の新しい Quick Sight データセットの追加 Google BigQuery
<a name="quicksight-google-big-query-create"></a>

Google BigQuery でデータソース接続を作成したら、分析用の Google BigQuery データセットを作成できます。Google BigQuery を使用するデータセットは、SPICE にのみ保存できます。

**Google BigQuery を使用してデータセットを作成するには**

1. [クイックコンソール](https://quicksight.aws.amazon.com/)を開きます。

1. 開始ページから、**データ**を選択します。

1. **Create** を選択し、**New Dataset** を選択します。

1. **Google BigQuery** タイルを選択し、**データセットの作成**を選択します。

1. <a name="gbq-step-4"></a>**[テーブル]** で、以下のいずれかを実行します。
   + 使用するテーブルを選択します。
   + 独自のパーソナル SQL ステートメントを使用するには、**[カスタム SQL を使用]** を選択します。Quick Sight でのカスタム SQL の使用の詳細については、「」を参照してください[データをカスタマイズするための SQL の使用](adding-a-SQL-query.md)。

1. **[Edit/Preview]** (編集/プレビュー) を選択します。

1. (オプション) **[Data prep]** ページで、計算フィールド、フィルター、結合を使用してデータをカスタマイズできます。

1. 変更が完了したら、**[保存]** を選択し、データセットを保存して閉じます。

# Google Sheets データソースを使用したデータセットの作成
<a name="create-a-dataset-google-sheets"></a>

Google Sheets は、ユーザーがリアルタイムでデータを作成、編集、コラボレーションできるウェブベースのスプレッドシートアプリケーションです。包括的な関数と計算式のセットにより、ビジネスインテリジェンスと分析のための強力なデータソースとして機能します。ユーザーはインサイトを効率的に整理、分析、共有できます。シームレスなコラボレーション機能により、データ駆動型プロジェクトに取り組むチームに最適なプラットフォームとなります。

## Amazon Quick での管理者設定
<a name="google-sheets-admin-config"></a>

Amazon Quick 管理者は、1 回限りのセットアップを実行して、データソースとして Google Sheets を有効にする必要があります。詳細な手順と重要な考慮事項については、「[ブログ](https://aws.amazon.com//blogs/business-intelligence/transform-your-google-sheets-data-into-powerful-analytics-with-amazon-quicksight/)」を参照してください。

## Google Sheets データソースを使用したデータセットの作成
<a name="google-sheets-create-dataset"></a>

以下の手順に従って、Google Sheets データソースを使用してデータセットを作成します。

**Google Sheets データソースを使用してデータセットを作成するには**

1. クイックスタートページから、**データセット**を選択します。

1. **[データセット]** のページで、**[新しいデータセット]** を選択します。

1. **Google シート**を選択します。

1. データソースの名前を選択し、**[接続]** を選択します。

1. Google のサインインページにリダイレクトされたら、次の操作を行います。

   1. Google アカウントの認証情報を入力し、**[次へ]** を選択します。

   1. アクセス許可を確認して、 AWS アカウントが Google Sheets に接続することを許可し、**続行**を選択します。

1. **[テーブルの選択]** メニューで、データを見つけます。メニューには、Google アカウントのすべてのフォルダ、サブフォルダ、シート、タブが表示されます。タブを表示するには、表示されたリストからシートを選択します。

1. 操作するタブを選択します。

1. **[データの編集とプレビュー]** を選択して、データ準備ページに移動します。**[データを追加]** を選択して、追加のタブを含めます。

1. 結合を設定し、**公開と視覚化**を選択して Quick Sight で Google Sheets データを分析します。

**注記**  
このコネクタは SPICE 機能のみをサポートします。
OAuth トークンの有効期限が切れた場合 (取り込みエラーレポートまたは新しいデータセットの作成時に表示される)、データソースの **[編集]** を選択して再承認し、更新します。

# Apache Impala データソースを使用したデータセットの作成
<a name="create-a-dataset-impala"></a>

Apache Impala は、Apache Hadoop でネイティブに実行されるように設計された高性能超並列処理 (MPP) SQL クエリエンジンです。以下の手順を使用して、Quick Sight と Apache Impala 間の安全な接続を確立します。

Quick Sight と Apache Impala 間のすべてのトラフィックは、SSL を使用して暗号化されます。Quick Sight は、Impala 接続の標準的なユーザー名とパスワード認証をサポートしています。

接続を確立するには、Impala インスタンスで SSL 設定を設定し、認証情報を準備し、Impala サーバーの詳細を使用して Quick Sight で接続を設定し、接続を検証して安全なデータアクセスを確保する必要があります。

**Apache Impala データソースを使用してデータセットを作成するには**

1. クイックスタートページで、**データ**を選択します。

1. **データ**ページで、**作成**を選択します。

1. [**Data source**] を選択する。

1. **Impala** を選択し、次**へ**を選択します。

1. データソースの名前を入力します。

1. パブリック接続の場合:

   1. **[データベースサーバー]**、**[HTTP パス]**、**[ポート]**、**[ユーザー名]**、および **[パスワード]**の接続の詳細を入力します。

   1. 検証が成功したら、**[データソースの作成]** を選択します。

1. プライベート接続の場合:

   1. 接続の詳細を入力する前に、管理者と協力して VPC 接続を設定します。

     ユーザーまたは管理者は、[Quick で VPC 接続を設定できます](vpc-creating-a-connection-in-quicksight.md)。SSL は、安全なデータ転送を確保するためにデフォルトで有効になっています。接続検証エラーが発生した場合は、接続と VPC の詳細を確認してください。

     問題が解決しない場合は、管理者に連絡して、Quick Sight の[承認済み証明書リスト](configure-access.md#ca-certificates)に認証局が含まれていることを確認してください。

1. **[テーブルの選択]** メニューでは、次のいずれかを実行できます。

   1. 特定のスキーマまたはテーブルを選択し、**[選択]** を選択します。

   1. SQL クエリを書き込むには、**[カスタム SQL を使用]** を選択します。

1. 選択が完了すると、データ準備ページにリダイレクトされます。データを調整し、**公開と視覚化**を選択して Quick Sight で Impala データを分析します。

**注記**  
このコネクタは以下をサポートしています。  
ユーザー名およびパスワード認証
パブリック接続とプライベート接続
テーブル検出とカスタム SQL クエリ
取り込み中の完全なデータ更新
SPICE ストレージのみ

# Microsoft Excel ファイルを使用したデータセットの作成
<a name="create-a-data-set-excel"></a>

Microsoft Excel ファイルを使用してデータセットを作成するには、ローカルまたはネットワークドライブから .xlsx ファイルをアップロードします。データは [SPICE](spice.md) にインポートされます。

 Amazon S3 データソースを使用した新しい Amazon S3 データセットの作成の詳細については、[既存の Amazon S3 データソースを使用したデータセットの作成](create-a-data-set-existing.md#create-a-data-set-existing-s3) または [Amazon S3 ファイルを使用したデータセットの作成](create-a-data-set-s3.md) を参照してください。

**Excel ファイルに基づいたデータセットを作成する**

1. [データソースのクォータ](data-source-limits.md) をチェックし、ターゲットファイルがデータソースのクォータを超えていないことを確認します。

1. クイックスタートページで、**データ**を選択します。

1. **データ**ページで、**作成**してから**新しいデータセット**を選択します。

1. [**Upload a file (ファイルのアップロード)**] を選択します。

1. [**Open**] ダイアログボックスで、ファイルを選択してから、[**Open**] を選択します。

   Quick Sight にアップロードするファイルは 1 GB 以下である必要があります。

1. Excel ファイルに複数のシートがある場合は、インポートするシートを選択します。このシートの選択は、後のデータ準備で変更できます。

1. 
**注記**  
以降の画面では、データ準備を行う複数の機会があります。それぞれの機会に、[**Prepare Data**] 画面に移動します。この画面は、データのインポートが完了した後にアクセスできる画面と同じです。この画面では、アップロードが完了した後でもアップロード設定を変更できます。

    [**Select**] を選択して、設定を確定します。または、[**Edit/Preview data (データの編集/プレビュー)**] を選択して、すぐにデータ準備を行うことができます。

   次の画面にデータのプレビューが表示されます。データプレビューで直接変更することはできません。

1. データの見出しや内容が正しく表示されない場合は、**[Edit settings and prepare data]** (設定の編集とデータの準備) を選択し、ファイルのアップロード設定を修正できます。

   それ以外の場合は**[次へ]** を選択してください。

1. [**Data Source Details**] 画面で、[**Edit/Preview data**] を選択できます。**[Prepare Data]** (データの準備)画面でデータセット名を指定できます。

   データ準備を行う必要がない場合は、データをそのまま使用する分析を作成することを選択できます。[**Visualize (視覚化する)**] を選択します。これにより、データセットはソースファイルと同じ名前になり、**[Analysis]** (分析) 画面に移動します。データ準備と Excel のアップロード設定の詳細については、「[Amazon Quick Sight でのデータの準備](preparing-data.md)」を参照してください。

**注記**  
新しいフィールドの追加など、ファイルに変更を加える場合はいつでも、Microsoft Excel で変更を行い、Quick Sight で更新されたバージョンを使用して新しいデータセットを作成する必要があります。データセットを変更すると可能性のある影響の詳細については、「[データセットを編集するときに考慮すべきこと](edit-a-data-set.md#change-a-data-set)」を参照してください。

# Presto を使用したデータソースの作成
<a name="create-a-data-source-presto"></a>

Presto (または PrestoDB) は、オープンソースの分散型 SQL クエリエンジンであり、あらゆるサイズのデータに高速な分析クエリを実行できるように設計されています。非リレーショナルデータソースとリレーショナルデータソースの両方をサポートしています。サポートされている非リレーショナルデータソースには、Hadoop Distributed File System (HDFS)、Amazon S3、Cassandra、MongoDB、HBase などがあります。サポートされているリレーショナルデータソースには、MySQL、PostgreSQL、Amazon Redshift、Microsoft SQL Server、Teradata などがあります。

Presto の詳細については、以下を参照してください。
+ [Presto の概要](https://aws.amazon.com/big-data/what-is-presto/)、 AWS ウェブサイトでの Presto の説明。
+ 「Amazon EMR リリースガイド」の「[Creating a Presto cluster with Amazon Elastic MapReduce (EMR)](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-presto.html)」(Amazon Elastic MapReduce (EMR) を使用した Presto クラスターの作成)。
+ Presto に関する一般的な情報については、「[Presto Documentation](https://trino.io/docs/current/)」を参照してください。

Presto クエリエンジンで実行したクエリの結果は、Quick Sight データセットに変換できます。Presto は、バックエンドデータベースで分析クエリを処理します。次に、Quick Sight クライアントに結果を返します。Presto 経由でデータを直接クエリする、またはクエリの結果を SPICE にインポートすることができます。

Quick Sight を Presto クライアントとして使用してクエリを実行する前に、必ずデータソースプロファイルを設定してください。Quick Sight には、アクセスする Presto データソースごとにデータソースプロファイルが必要です。Presto への接続を作成するには、次の手順を実行します。

**Amazon Quick Sight から presto データソースへの新しい接続を作成するには (コンソール)**

1. Amazon Quick Sight の開始ページで、左側の**データ**を選択します。

1. **Create** then **New データセット**を選択します。

1. **Presto** タイルを選択します。
**注記**  
ほとんどのブラウザでは、Ctrl-F または Cmd-F を使用して検索ボックスを開き、「**presto**」と入力してタイルを見つけることができます。

1. 新しいデータソースの設定を追加します。
   + ****データソース名**** - データソース接続用のわかりやすい名前を入力します。この名前は、[**データセット**] 画面の下部にある [**既存のデータソース**] セクションに表示されます。
   + ****接続タイプ**** - Prestoへの接続に使用する接続タイプを選択します。

     パブリックネットワーク経由で接続するには、[**パブリックネットワーク**] を選択します。

     パブリックネットワークを使用する場合は、Lightweight Directory Access Protocol (LDAP) を使用して Presto サーバーを保護および認証する必要があります。LDAP を使用するように Presto を設定する方法については、Presto のドキュメントの「[LDAP authentication](https://trino.io/docs/current/security/ldap.html)」(LDAP 認証) を参照してください。

     仮想プライベート接続を介して接続するには、[**VPC 接続**] リストから適切な VPC 名を選択します。

     Presto サーバーで認証されていないアクセスが許可されている場合、 はプライベート VPC 接続を使用してそのサーバーに安全に接続 AWS する必要があります。新しい VPC の設定については、「[Amazon Quick Sight での VPC 接続の設定](working-with-aws-vpc.md)」を参照してください。
   + ****Database server (データベースサーバー)****- データベースサーバーの名前。
   + ****ポート**** – Amazon Quick Sight からの着信接続を受け入れるためにサーバーが使用するポート 
   + ****Catalog (カタログ)**** - 使用するカタログの名前。
   + ****Authentication required (認証が必要です)**** - (オプション) このオプションは、VPC 接続タイプを選択した場合にのみ表示されます。接続先の Presto データソースで認証を必要としない場合は **[No]** (いいえ) を選択し、 そうでない場合はデフォルトの設定 **[Yes]** (はい) のままにします。
   + ****Username (ユーザーネーム)**** — Prestoへの接続に使用するユーザー名を入力します。Quick Sight は、このデータソースプロファイルを使用するすべての接続に同じユーザー名とパスワードを適用します。Quick Sight を他のアカウントとは別にモニタリングする場合は、Quick Sight データソースプロファイルごとに Presto アカウントを作成します。

     使用する Presto アカウントは、データベースにアクセスできること、および少なくとも1つのテーブルに対して `SELECT` ステートメントを実行できることが必要です。
   + ****Password (パスワード)**** — Presto ユーザー名と一緒に使用するパスワード。Amazon Quick Sight は、データソースプロファイルで使用するすべての認証情報を暗号化します。詳細については、「[Amazon Quick でのデータ暗号化](data-encryption.md)」を参照してください。
   + ****Enable SSL (SSL の有効化)**** - SSL は、デフォルトで有効になります。

1. [**接続の検証**] を選択して、設定をテストします。

1. 設定を検証したら、[**データソースの作成**] を選択して接続を完了します。

# Amazon Quick Sight での Snowflake の使用
<a name="connecting-to-snowflake"></a>

Snowflake は、データウェアハウスやコラボレーションからデータサイエンスや生成 AI まで、データソリューションを提供する AI データクラウドプラットフォームです。Snowflake は、生成 AI、Machine Learning、データおよび分析、小売における AWS ISV コンピテンシーを含む複数の AWS 認定を持つ[AWS パートナー](https://partners.amazonaws.com/partners/001E000000d8qQcIAI/Snowflake)です。

Amazon Quick Sight には、Snowflake ログイン認証情報と OAuth クライアント認証情報の 2 つの方法で Snowflake に接続できます。次のセクションでは、両方の接続方法について学習します。

**Topics**
+ [ログイン認証情報を使用した Snowflake への Quick Sight データソース接続の作成](#create-connection-to-snowflake)
+ [OAuth クライアント認証情報を使用した Snowflake への Quick Sight データソース接続の作成](#create-connection-to-snowflake-oauth-credentials)

## ログイン認証情報を使用した Snowflake への Quick Sight データソース接続の作成
<a name="create-connection-to-snowflake"></a>

 このセクションでは、Snowflake ログイン認証情報を使用して Quick Sight と Snowflake 間の接続を作成する方法について説明します。Quick Sight と Snowflake 間のすべてのトラフィックは、SSL によって有効になります。

**Quick Sight と Snowflake 間の接続を作成するには**

1. [クイックコンソール](https://quicksight.aws.amazon.com/)を開きます。

1. 左側のナビゲーションペインで、**データ**を選択し、**作成**を選択し、**新しいデータセット**を選択します。

1. **[Snowflake]** データソースカードを選択します。

1. 表示されるポップアップに、次の情報を入力します。

   1. **[データソース名]** に、Snowflake のデータソース接続のための分かりやすい名前を入力します。Snowflake への接続から多数のデータセットを作成できるようにするため、名前はシンプルにしておくことをお勧めします。

   1. **[接続タイプ]** で、使用しているネットワークのタイプを選択します。データがパブリックに共有されている場合は **[パブリックネットワーク]** を選択します。データが VPC 内に存在する場合は **[VPC]** を選択します。Quick Sight で VPC 接続を設定するには、「」を参照してください[Amazon Quick での VPC 接続の管理](vpc-creating-a-connection-in-quicksight.md)。

   1. **[データベースサーバー]** には、Snowflake 接続の詳細で指定されているホスト名を入力します。

1. **[データベース名とウェアハウス]** に、接続するそれぞれの Snowflake データベースとウェアハウスを入力します。

1. **[ユーザー名]** と **[パスワード]** に、Snowflake の接続認証情報を入力します。

Quick Sight アカウントと Snowflake アカウントの間にデータソース接続が正常に作成されたら、Snowflake データを含む [データセットの作成](creating-data-sets.md) を開始できます。

## OAuth クライアント認証情報を使用した Snowflake への Quick Sight データソース接続の作成
<a name="create-connection-to-snowflake-oauth-credentials"></a>

OAuth クライアント認証情報を使用して、Quick Sight [ APIs を介して Quick Sight](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_CreateDataSource.html) アカウントを Snowflake に接続できます。 *OAuth* は、高度なセキュリティ要件を持つアプリケーションによく使用される標準の認可プロトコルです。OAuth クライアント認証情報を使用して Snowflake に接続すると、Quick Sight APIs と Quick Sight UI を使用して Snowflake データを含むデータセットを作成できます。Snowflake での OAuth の設定の詳細については、「[Snowflake OAuth の概要](https://docs.snowflake.com/en/user-guide/oauth-snowflake-overview)」を参照してください。

Quick Sight はグラン`client credentials`OAuthトタイプをサポートします。 OAuthクライアント認証情報は、machine-to-machine通信のアクセストークンを取得するために使用されます。この方法は、ユーザーが関与せずにサーバーでホストされているリソースにクライアントがアクセスする必要があるシナリオに適しています。

OAuth.2.0 のクライアント認証情報フローには、認可サーバーでクライアントアプリケーションを認証するために使用できるクライアント認証メカニズムがいくつかあります。Quick Sight は、Snowflake OAuthに基づくクライアント認証情報を次の 2 つのメカニズムでサポートします。
+ **トークン (クライアントシークレットベースの OAuth)**: シークレットベースのクライアント認証メカニズムは、クライアント認証情報とともに使用され、認可サーバーで認証するためにフローを付与します。この認証スキームでは、OAuth クライアントアプリケーションの `client_id` と `client_secret` を Secrets Manager に保存する必要があります。
+ **X509 (クライアントプライベートキー JWT ベースの OAuth)**: X509 証明書キーベースのソリューションは、クライアントシークレットの代わりに認証に使用されるクライアント証明書を使用して OAuth メカニズムに追加のセキュリティレイヤーを提供します。この方法は主に、この方法を使用して 2 つのサービス間の強い信頼を持つ認可サーバーで認証するプライベートクライアントによって使用されます。

Quick Sight は、次の ID プロバイダーとOAuthの接続を検証しました。
+ OKTA
+ PingFederate

### Secrets Manager での OAuth 認証情報の保存
<a name="create-connection-to-snowflake-oauth-store-credentials"></a>

OAuth クライアント認証情報は machine-to-machine のユースケースを対象としており、インタラクティブに設計されていません。Quick Sight と Snowflake の間にデータソース接続を作成するには、OAuthクライアントアプリケーションの認証情報を含む新しいシークレットを Secrets Manager で作成します。新しいシークレットで作成されたシークレット ARN を使用して、Quick Sight に Snowflake データを含むデータセットを作成できます。Quick Sight で Secrets Manager キーを使用する方法の詳細については、「」を参照してください[Quick でデータベース認証情報の代わりに AWS Secrets Manager シークレットを使用する](secrets-manager-integration.md)。

Secrets Manager に保存する必要がある認証情報は、使用する OAuth メカニズムによって決まります。X509-based OAuth シークレットには、次のキーと値のペアが必要です。
+ `username`: Snowflake に接続するときに使用する Snowflake アカウントのユーザー名
+ `client_id`: OAuth クライアント ID
+ `client_private_key`: OAuth クライアントのプライベートキー
+ `client_public_key`: OAuthクライアント証明書のパブリックキーとその暗号化されたアルゴリズム (例: `{"alg": "RS256", "kid", "cert_kid"}`)

トークンベースの OAuth シークレットには、次のキーと値のペアが必要です。
+ `username`: Snowflake に接続するときに使用する Snowflake アカウントのユーザー名
+ `client_id`: OAuth クライアント ID
+ `client_secret`: OAuth クライアントシークレット

### Quick Sight APIs を使用した Snowflake OAuth接続の作成
<a name="create-connection-to-snowflake-oauth-example"></a>

Snowflake OAuth認証情報を含むシークレットを Secrets Manager で作成し、Quick アカウントを Secrets Manager に接続したら、Quick Sight APIs と SDK を使用して Quick Sight と Snowflake 間のデータソース接続を確立できます。次の例では、トークンOAuthクライアントの認証情報を使用して Snowflake データソース接続を作成します。

```
{
    "AwsAccountId": "AWSACCOUNTID",
    "DataSourceId": "UNIQUEDATASOURCEID",
    "Name": "NAME",
    "Type": "SNOWFLAKE",
    "DataSourceParameters": {
        "SnowflakeParameters": {
            "Host": "HOSTNAME",
            "Database": "DATABASENAME",
            "Warehouse": "WAREHOUSENAME",
            "AuthenticationType": "TOKEN",
            "DatabaseAccessControlRole": "snowflake-db-access-role-name",
            "OAuthParameters": {
              "TokenProviderUrl": "oauth-access-token-endpoint", 
              "OAuthScope": "oauth-scope",
              "IdentityProviderResourceUri" : "resource-uri",
              "IdentityProviderVpcConnectionProperties" : {
                "VpcConnectionArn": "IdP-VPC-connection-ARN" 
             }
        }
    },
    "VpcConnectionProperties": {
        "VpcConnectionArn": "VPC-connection-ARN-for-Snowflake"
    }
    "Credentials": {
        "SecretArn": "oauth-client-secret-ARN"
    }
}
```

CreateDatasource API オペレーションの詳細については、「[CreateDataSource](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_CreateDataSource.html)」を参照してください。

Quick Sight と Snowflake 間の接続が確立され、Quick Sight APIsまたは SDK を使用してデータソースが作成されると、新しいデータソースが Quick Sight に表示されます。Quick Sight の作成者は、このデータソースを使用して Snowflake データを含むデータセットを作成できます。テーブルは、`CreateDataSource` API コールで渡される `DatabaseAccessControlRole`パラメータで使用されるロールに基づいて表示されます。データソース接続の作成時にこのパラメータが定義されていない場合は、デフォルトの Snowflake ロールが使用されます。

Quick Sight アカウントと Snowflake アカウントの間にデータソース接続が正常に作成されたら、Snowflake データを含む [データセットの作成](creating-data-sets.md) を開始できます。

# Amazon Quick Sight での Starburst の使用
<a name="connecting-to-starburst"></a>

Starburst は、超並列処理 (MPP) クエリエンジンである Trino をベースに構築された、フル機能のデータレイク分析サービスです。このセクションでは、Amazon Quick Sight から Starburst に接続する方法について説明します。Quick Sight と Starburst 間のすべてのトラフィックは SSL によって有効になります。Starburst Galaxy に接続する場合は、Starburst Galaxy アカウントにログインして **Partner Connect** を選択し、**Quick Sight **を選択して、必要な接続の詳細を取得できます。ホスト名やポートなどの情報が表示されるはずです。Amazon Quick Sight は、Starburst への基本的なユーザー名とパスワード認証をサポートしています。

Quick Sight には、Starburst ログイン認証情報またはOAuthクライアント認証情報を使用して Starburst に接続する 2 つの方法があります。次のセクションでは、両方の接続方法について学習します。

**Topics**
+ [ログイン認証情報を使用した Starburst への Quick Sight データソース接続の作成](#create-connection-to-starburst)
+ [OAuth クライアント認証情報を使用した Starburst への Quick Sight データソース接続の作成](#create-connection-to-starburst-oauth)

## ログイン認証情報を使用した Starburst への Quick Sight データソース接続の作成
<a name="create-connection-to-starburst"></a>

1. まず、新しいデータセットを作成します。左側のナビゲーションペインで、**データ**を選択し、**作成**を選択し、**新しいデータセット**を選択します。

1. **[Starburst]** データソースカードを選択します。

1. Starburst の製品タイプを選択します。オンプレミスの Starburst インスタンスには **[Starburst Enterprise]** を選択します。マネージドインスタンスには **[Starburst Galaxy]** を選択します。

1. **[データソース名]** に、Starburst のデータソース接続のための分かりやすい名前を入力します。Starburst への接続から多数のデータセットを作成できるようにするため、名前はシンプルにしておくことをお勧めします。

1. **[Connection type]** (接続タイプ) で、使用しているネットワークのタイプを選択します。データがパブリックに共有されている場合は **[パブリックネットワーク]** を選択します。データが VPC 内にある場合は **[VPC]** を選択します。Amazon Quick Sight で VPC 接続を設定するには、[「Amazon Quick Sight での VPC 接続の設定](https://docs.aws.amazon.com/quicksight/latest/user/vpc-creating-a-connection-in-quicksight.html)」を参照してください。この接続タイプは Starburst Galaxy では使用できません。

1. **[データベースサーバー]** には、Starburst 接続の詳細で指定されているホスト名を入力します。

1. **[カタログ]** には、Starburst 接続の詳細で指定されているカタログを入力します。

1. **[ポート]** には、Starburst 接続の詳細で指定されているポートを入力します。Starburst Galaxy のデフォルトは 443 です。

1. **[ユーザー名]** と **[パスワード]** には、Starburst の接続認証情報を入力します。

1. 接続が機能していることを確認するには、**[接続を検証]** を選択します。

1. 完了してデータソースを作成するには、**[データソースの作成]** を選択します。

**注記**  
Amazon Quick Sight と Starburst 間の接続は、Starburst バージョン 420 を使用して検証されました。

Quick Sight アカウントと Starburst アカウントの間にデータソース接続が正常に作成されたら、Starburst データ[データセットの作成](creating-data-sets.md)を含む を開始できます。

## OAuth クライアント認証情報を使用した Starburst への Quick Sight データソース接続の作成
<a name="create-connection-to-starburst-oauth"></a>

OAuth クライアント認証情報を使用して、Quick Sight [ APIs を介して Quick Sight](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_CreateDataSource.html) アカウントを Starburst に接続できます。 *OAuth* は、高度なセキュリティ要件を持つアプリケーションによく使用される標準の認可プロトコルです。OAuth クライアント認証情報を使用して Starburst に接続すると、Quick Sight APIs と Quick Sight UI で Starburst データを含むデータセットを作成できます。Starburst OAuth での設定の詳細については、「[OAuth 2.0 authentication](https://docs.starburst.io/latest/security/oauth2.html)」を参照してください。

Quick Sight はグラン`client credentials`OAuthトタイプをサポートしています。 OAuthクライアント認証情報は、machine-to-machine通信用のアクセストークンを取得するために使用されます。この方法は、ユーザーが関与せずにサーバーでホストされているリソースにクライアントがアクセスする必要があるシナリオに適しています。

OAuth.2.0 のクライアント認証情報フローには、認可サーバーでクライアントアプリケーションを認証するために使用できるクライアント認証メカニズムがいくつかあります。Quick Sight は、Starburst OAuthに基づくクライアント認証情報を次の 2 つのメカニズムでサポートします。
+ **トークン (クライアントシークレットベースの OAuth)**: シークレットベースのクライアント認証メカニズムは、クライアント認証情報とともに使用され、認可サーバーで認証するためにフローを付与します。この認証スキームでは、OAuth クライアントアプリケーションの `client_id` と `client_secret` を Secrets Manager に保存する必要があります。
+ **X509 (クライアントプライベートキー JWT ベースの OAuth)**: X509 証明書キーベースのソリューションは、クライアントシークレットの代わりに認証に使用されるクライアント証明書を使用して OAuth メカニズムに追加のセキュリティレイヤーを提供します。この方法は主に、この方法を使用して 2 つのサービス間の強い信頼を持つ認可サーバーで認証するプライベートクライアントによって使用されます。

Quick Sight は、次の ID プロバイダーとOAuthの接続を検証しました。
+ OKTA
+ PingFederate

### Secrets Manager での OAuth 認証情報の保存
<a name="create-connection-to-starburst-oauth-store-credentials"></a>

OAuth クライアント認証情報は machine-to-machine のユースケースを対象としており、インタラクティブに設計されていません。Quick Sight と Starburst の間にデータソース接続を作成するには、OAuthクライアントアプリケーションの認証情報を含む新しいシークレットを Secrets Manager で作成します。新しいシークレットで作成されたシークレット ARN を使用して、Quick Sight に Starburst データを含むデータセットを作成できます。Quick Sight で Secrets Manager キーを使用する方法の詳細については、「」を参照してください[Quick でデータベース認証情報の代わりに AWS Secrets Manager シークレットを使用する](secrets-manager-integration.md)。

Secrets Manager に保存する必要がある認証情報は、使用する OAuth メカニズムによって決まります。X509-based OAuth シークレットには、次のキーと値のペアが必要です。
+ `username`: Starburst に接続するときに使用する Starburst アカウントのユーザー名
+ `client_id`: OAuth クライアント ID
+ `client_private_key`: OAuth クライアントのプライベートキー
+ `client_public_key`: OAuthクライアント証明書のパブリックキーとその暗号化されたアルゴリズム (例: `{"alg": "RS256", "kid", "cert_kid"}`)

トークンベースの OAuth シークレットには、次のキーと値のペアが必要です。
+ `username`: Starburst に接続するときに使用する Starburst アカウントのユーザー名
+ `client_id`: OAuth クライアント ID
+ `client_secret`: OAuth クライアントシークレット

### Quick Sight APIs を使用した Starburst OAuth接続の作成
<a name="create-connection-to-starburst-oauth-example"></a>

Starburst OAuth認証情報を含むシークレットを Secrets Manager で作成し、Quick アカウントを Secrets Manager に接続したら、Quick Sight APIs と SDK を使用して Quick Sight と Starburst 間のデータソース接続を確立できます。次の例では、トークン OAuth クライアントの認証情報を使用して Starburst データソース接続を作成します。

```
{
    "AwsAccountId": "AWSACCOUNTID",
    "DataSourceId": "DATASOURCEID",
    "Name": "NAME",
    "Type": "STARBURST",
    "DataSourceParameters": {
        "StarburstParameters": {
            "Host": "STARBURST_HOST_NAME",
            "Port": "STARBURST_PORT",
            "Catalog": "STARBURST_CATALOG",
            "ProductType": "STARBURST_PRODUCT_TYPE",     
            "AuthenticationType": "TOKEN",
            "DatabaseAccessControlRole": "starburst-db-access-role-name",
            "OAuthParameters": {
              "TokenProviderUrl": "oauth-access-token-endpoint", 
              "OAuthScope": "oauth-scope",
              "IdentityProviderResourceUri" : "resource-uri",
              "IdentityProviderVpcConnectionProperties" : {
                "VpcConnectionArn": "IdP-VPC-connection-ARN"
            }
        }
    },
    "VpcConnectionProperties": {
        "VpcConnectionArn": "VPC-connection-ARN-for-Starburst"
    },
    "Credentials": {
        "SecretArn": "oauth-client-secret-ARN"
    }
}
```

CreateDatasource API オペレーションの詳細については、「[CreateDataSource](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_CreateDataSource.html)」を参照してください。

Quick Sight と Starburst 間の接続が確立され、Quick Sight APIsまたは SDK を使用してデータソースが作成されると、新しいデータソースが Quick Sight に表示されます。Quick Sight の作成者は、このデータソースを使用して、Starburst データを含むデータセットを作成できます。テーブルは、`CreateDataSource` API コールで渡される `DatabaseAccessControlRole`パラメータで使用されるロールに基づいて表示されます。データソース接続の作成時にこのパラメータが定義されていない場合は、デフォルトの Starburst ロールが使用されます。

Quick Sight アカウントと Starburst アカウントの間にデータソース接続が正常に作成されたら、Starburst データ[データセットの作成](creating-data-sets.md)を含む を開始できます。

# SaaS ソースからのデータソースとデータセットの作成
<a name="connecting-to-saas-data-sources"></a>

Software as a Service (SaaS) アプリケーションからのデータを分析してレポートするには、SaaS コネクタを使用して Quick Sight から直接データにアクセスできます。SaaS コネクタは、中間データストアに一切データをエクスポートすることなく、単純に OAuth を使用してサードパーティーのアプリケーションソースにアクセスします。

SaaS アプリケーションのクラウドベースまたはサーバーベースのインスタンスのいずれかを使用できます。企業ネットワークで実行されている SaaS アプリケーションに接続するには、Quick Sight がネットワーク経由でアプリケーションのドメインネームシステム (DNS) 名にアクセスできることを確認してください。Quick Sight が SaaS アプリケーションにアクセスできない場合、不明なホストエラーが生成されます。

SaaS データを使用するいくつか方法の例を紹介します。
+ JIRA を使用して問題やバグを追跡しているエンジニアリングチームは、デベロッパーの効率とバグのバーンダウンを報告できます。
+ マーケティング組織は Quick Sight を Adobe Analytics と統合して、統合されたダッシュボードを構築し、オンラインおよびウェブマーケティングデータを視覚化できます。

Software as a Service (SaaS) から、利用可能なソースに接続してデータソースとデータセットを作成するには、次の手順に従います。この手順では、例として GitHub への接続を使用します。その他の SaaS データソースは同じプロセスに従いますが、画面、特に SaaS 画面の外観は、異なることがあります。

**SaaS 経由でソースに接続してデータソースとデータセットを作成するには**

1. クイックスタートページで、**データ**を選択します。

1. **データ**ページで、**作成**を選択し、**新しいデータセット**を選択します。

1. 使用する SaaS ソースを表すアイコンを選択します。例えば、Adobe Analytics または GitHub を選択することができます。

   OAuth を使用するソースについては、コネクタにより SaaS サイトに移動して接続が認可された後に、データソースを作成することができます。

1. データソースの名前を選択し、入力します。さらに多くの画面の手順がある場合は、適切な情報を入力します。次に、[**Create data source**] (データソースの作成) を選択します。

1. プロンプトが表示されたら、SaaS ログインページに認証情報を入力します。

1. プロンプトが表示されたら、SaaS データソースと Quick Sight 間の接続を承認します。

   次の例は、Quick Sight ドキュメントの GitHub アカウントにアクセスするための Quick Sight の認可を示しています。
**注記**  
Quick Sight ドキュメントが GitHub で利用可能になりました。このユーザーガイドに変更を加える必要がある場合は、GitHub を使用して直接編集できます。

   (オプション) SaaS アカウントが組織アカウントの一部である場合、Quick Sight の承認の一環として組織のアクセスをリクエストするよう求められることがあります。これを行うには、SaaS 画面のプロンプトに従って、Quick Sight を承認するように選択します。

1. 認可が完了したら、接続先のテーブルまたはオブジェクトを選択します。続いて、**[Select]** (選択) を選択します。

1. **[Finish data set creation]** (データセットの作成を終了する) 画面で、次のいずれかのオプションを選択します。
   + データソースとデータセットを保存するには、**[Edit/Preview data]** (データの編集/プレビュー) を選択します。次に、上部のメニューバーから [**保存**] を選択します。
   + データセットを作成し、そのデータをそのまま使用して分析を作成するには、**[Visualize]** (視覚化する) を選択します。このオプションでは、データソースとデータセットが自動的に保存されます。

     分析を作成する前に、[**Edit/Preview data**] (データの編集/プレビュー) を選択してデータを準備することもできます。これにより、データ準備画面が開きます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。

以下の制約が適用されます。
+ SaaS ソースは、Quick Sight が接続するための REST API オペレーションをサポートしている必要があります。
+ Jira に接続する場合、URL はパブリックアドレスでなければなりません。
+ 十分な [SPICE](spice.md) 容量がない場合は、**[Edit/Preview data]** (データの編集/プレビュー) を選択します。データ準備画面で、データセットからフィールドを削除してデータセットのサイズを減らしたり、フィルターを適用して返される行数を減らしたりできます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。

# Salesforce からのデータセットの作成
<a name="create-a-data-set-salesforce"></a>

Salesforce に接続してデータを提供するレポートまたはオブジェクトを選択し、データセットを作成するには、次の手順に従います。

**Salesforce を使用してレポートまたはオブジェクトから データセットを作成するには**

1. [データソースのクォータ](data-source-limits.md) をチェックし、ターゲットレポートまたはターゲットオブジェクトがデータソースのクォータを越えていないことを確認します。

1. クイックスタートページで、**データ**を選択します。

1. **データ**ページで、**作成**してから**新しいデータセット**を選択します。

1. **Salesforce** アイコンを選択します。

1. データソースの名前を入力し、[**Create data source (データソースの作成)**] を選択します。

1. Salesforce のログインページで、Salesforce の認証情報を入力します。

1. [**Data elements: contain your data**] で、[**Select**] を選択してから、[**REPORT**] または [**OBJECT**] のいずれかを選択します。
**注記**  
結合されたレポートは、Quick Sight データソースとしてサポートされていません。

1. 次のいずれかのオプションを選択します。
   + 分析を作成する前にデータ準備を行うには、[**Edit/Preview data**] を選択してデータ準備を開きます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。
   + それ以外の場合は、レポートまたはオブジェクトを選択してから、[**Select**] を選択します。

1. 次のいずれかのオプションを選択します。
   + データセットを作成し、そのデータをそのまま使用して分析を作成するには、**[Visualize]** (視覚化する) を選択します。
**注記**  
十分な [SPICE](spice.md) 容量がない場合は、**[Edit/Preview data]** (データの編集/プレビュー) を選択します。データ準備では、データセットからフィールドを除去してデータセットのサイズを減らしたり、返される行数を減らすフィルターを適用したりできます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。
   + 分析を作成する前にデータ準備を行うには、[**Edit/Preview data**] を選択して、選択したレポートまたはオブジェクトのためのデータ準備を開きます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。

**注記**  
Salesforce コネクタは、ユーザーが名前空間分離を通じて認証する埋め込みコンソールデプロイではサポートされていません。OAuth 認証フローでは、サインインプロセスを完了するために Amazon Quick Sight コンソールに直接アクセスする必要があります。

# Amazon Quick Sight での Trino の使用
<a name="connecting-to-trino"></a>

Trino は、ペタバイトのデータを含むデータレイクを迅速にクエリするために構築された超並列処理 (MPP) クエリエンジンです。このセクションでは、Amazon Quick Sight から Trino に接続する方法について説明します。Amazon Quick Sight と Trino 間のすべてのトラフィックは、SSL によって有効になります。Amazon Quick Sight は、Trino への基本的なユーザー名とパスワード認証をサポートしています。

## Trino 用のデータソース接続の作成
<a name="create-connection-to-trino"></a>

1. まず、新しいデータセットを作成します。左側のナビゲーションペインで、**データ**を選択します。**Create** then **New Dataset** を選択します。

1. **[Trino]** データソースカードを選択します。

1. **[データソース名]** に、Trino のデータソース接続のための分かりやすい名前を入力します。Trino への接続から多数のデータセットを作成できるようにするため、名前はシンプルにしておくことをお勧めします。

1. **[Connection type]** (接続タイプ) で、使用しているネットワークのタイプを選択します。データがパブリックに共有されている場合は **[パブリックネットワーク]** を選択します。データが VPC 内にある場合は **[VPC]** を選択します。Amazon Quick Sight で VPC 接続を設定するには、[「Amazon Quick Sight での VPC 接続の設定](https://docs.aws.amazon.com/quicksight/latest/user/vpc-creating-a-connection-in-quicksight.html)」を参照してください。

1. **[データベースサーバー]** には、Trino 接続の詳細で指定されているホスト名を入力します。

1. **[カタログ]** には、Trino 接続の詳細で指定されているカタログを入力します。

1. **[ポート]** には、Trino 接続の詳細で指定されているポートを入力します。

1. **[ユーザー名]** と **[パスワード]** には、Trino の接続認証情報を入力します。

1. 接続が機能していることを確認するには、**[接続を検証]** を選択します。

1. 完了してデータソースを作成するには、**[データソースの作成]** を選択します。

## Trino 用の新しい Amazon Quick Sight データセットの追加
<a name="create-dataset-using-trino"></a>

Trino の[データソース作成プロセス](https://docs.aws.amazon.com/create-connection-to-starburst.html)を完了した後は分析に使用する Trino データセットを作成できるようになります。新規または既存の Trino データソースから新しいデータセットを作成できます。新しいデータソースを作成すると、Amazon Quick Sight はすぐにデータセットの作成に移動します。これは、以下のステップ 3 です。既存のデータソースを使用して新しいデータセットを作成する場合は、以下のステップ 1 から始めてください。

Trino データソースを使用してデータセットを作成するには、以下の手順を参照してください。

1. 開始ページから、**データ**を選択します。**Create** then **New データセット**を選択します。

1. 作成した Trino データソースを選択します。

1. [**データセットを作成**] を選択します。

1. 接続するテーブルを指定するには、スキーマを選択します。スキーマを選択しない場合は、独自の SQL ステートメントを使用することもできます。

1. 接続するテーブルを指定するには、まず使用する **[スキーマ]** を選択します。**[Tables]** (テーブル) で、使用するテーブルを選択します。独自の SQL ステートメントを使用したい場合は、**[Use custom SQL]** (カスタム SQL を使用する) を選択します。

1. **[Edit/Preview]** (編集/プレビュー) を選択します。

1. (オプション) さらにデータを追加するときは、以下の手順を実行します。

1. 右上にある **[データを追加]** を選択します。

1. 別のデータに接続するときは、**[Switch data source]** (データソースの切り替え) を選択し、別のデータセットを選択します。

1. プロンプトに従ってデータの追加を完成させます。

1. 新しいデータを同じデータセットに追加したら、**[Configure this join]** (この結合を設定します) (2 つの赤いドット) を選択します。追加した各テーブルで結合をセットアップします。

1. 計算フィールドを追加するときは、**[Add calculated field]** (計算フィールドを追加) を選択します。

1. 省略したいフィールドがあるときは、チェックボックスをオフにします。

1. 変更するデータ型があれば更新します。

1. 完了したら、**[Save]** (保存) を選択し、データセットを保存して閉じます。

**注記**  
Quick Sight と Trino 間の接続は、Trino バージョン 410 を使用して検証されました。

# ローカルテキストファイルを使用したデータセットの作成
<a name="create-a-data-set-file"></a>

ローカルテキストファイルをデータソースとして使用してデータセットを作成するときは、ファイルの場所を特定し、そのファイルをアップロードします。そのファイルのデータは、データセットの作成の一環として [SPICE](spice.md) に自動的にインポートされます。

**ローカルのテキストファイルに基づいてデータセットを作成するには**

1. [データソースのクォータ](data-source-limits.md) をチェックし、ターゲットファイルがデータソースのクォータを超えていないことを確認します。

   サポートされているファイルの種類は、.csv、.tsv、.json、.clf、または .elf です。

1. クイックスタートページで、**データ**を選択します。

1. **Create ** then **New データセット**を選択します。

1. [**Upload a file (ファイルのアップロード)**] を選択します。

1. [**Open**] ダイアログボックスで、ファイルを参照して選択してから、[**Open**] を選択します。

   Quick Sight にアップロードするファイルは 1 GB 以下である必要があります。

1. データセットを作成する前にデータを準備するには、**[Edit/Preview data]** (データの編集/プレビュー) を選択します。または、データをそのまま使用する分析を作成するには、[**Visualize**] を選択します。

   データ準備を行うことを選択した場合は、データの準備の一環としてデータセット名を指定できます。データ準備を行わないことを選択した場合は、ソースファイルと同じ名前のデータセットが作成されます。データ準備の詳細については、「[Amazon Quick Sight でのデータの準備](preparing-data.md)」を参照してください。

# Amazon Quick Sight での Amazon Timestream データの使用
<a name="using-data-from-timestream"></a>

以下は、Amazon Quick Sight を使用して Amazon Timestream データに接続する方法を示しています。簡単な概要については、YouTube でビデオチュートリアル「[Getting Started with Amazon Timestream and Amazon QuickSight](https://youtu.be/TzW4HWl-L8s)」(Amazon Timestream と Amazon QuickSight の使用開始) をご覧ください。

## Timestream データベースの新しい Amazon Quick Sight データソース接続の作成
<a name="create-connection-to-timestream"></a>

以下は、Amazon Quick Sight から Amazon Timestream に接続する方法を示しています。

続行する前に、Amazon Quick Sight が Amazon Timestream に接続する権限を持っている必要があります。接続が有効になっていないと、接続しようとしたときにエラーが発生します。Quick Sight 管理者は、 AWS リソースへの接続を許可できます。承認するには、右上にあるプロフィールのアイコンをクリックしてメニューを開きます。**[Manage QuickSight]** (QuickSight の管理)、**[Security & permissions]** (セキュリティとアクセス許可)、**[Add or remove]** (追加または削除する) の順に選択します。次に、Amazon Timestream のチェックボックスを有効にし、**[Update]** (更新) を選択して確定します。詳細については、[AWS データソースへの Amazon Quick Sight アクセスの設定](access-to-aws-resources.md) を参照してください。

**Amazon Timestream に接続するには**

1. まず、新しいデータセットを作成します。左側のナビゲーションペインから**データ**を選択します。

1. **Create** then **New Dataset** を選択します。

1. Timestream のデータソースカードを選択します。

1. [**Data source name (データソース名)**] に、Timestream のデータソース接続のための分かりやすい名前を入力します (例: `US Timestream Data`)。Timestream への接続から多数のデータセットを作成できるようにするため、名前はシンプルにしておくことをお勧めします。

1. **[Validate connection]** (接続を検証) を選択し、Timestream に正常に接続できていることを確認します。

1. **[Create data source]** (データソースを作成) を選択し、先へ進みます。

1. **[Database]** (データベース) で、**[Select]** (選択) を選択し、使用可能なオプションの一覧を表示します。

1. 使用するものを選択したら、**[Select]** (選択) をクリックして先へ進みます。

1. 次のいずれかを行います。
   + Quick Sight のインメモリエンジン ( と呼ばれるSPICE) にデータをインポートするには、 **にインポートSPICEを選択して分析を迅速化**します。
   + Quick Sight がデータセットを更新するか、分析またはダッシュボードを使用するたびにデータに対してクエリを実行できるようにするには、**データの直接クエリ**を選択します。

   Timestream のデータを使用する公開済みダッシュボードで自動更新を有効にするには、Timestream のデータセットで直接クエリを使用する必要があります。

1. **[Edit/Preview]** (編集/プレビュー) を選択し、**[Save]** (保存) を選択してデータセットを保存し、閉じます。

1. これらの手順を、データセットで開く Timestream への同時直接接続の数だけ繰り返します。たとえば、Quick Sight データセットで 4 つのテーブルを使用するとします。現在、Quick Sight データセットは、Timestream データソースから一度に 1 つのテーブルにのみ接続されます。同じデータセットで 4 つのテーブルを使用するには、Quick Sight に 4 つのデータソース接続を追加する必要があります。

## Timestream データに対する許可の管理
<a name="dataset-permissions-for-timestream"></a>

以下の手順では、同じ Timestream データソースへのアクセスを許可するアクセス許可の、表示、追加、取り消しの方法について説明します。追加するユーザーは、追加する前に Quick Sight でアクティブユーザーである必要があります。

**データセットに対するアクセス許可を編集するには**

1. 左側の**データ**を選択し、下にスクロールして Timestream 接続のデータセットを見つけます。例えば `US Timestream Data` などです。

1. **[Timestream]** のデータセットを選択し、それを開きます。

1. [dataset details] (データセットの詳細) ページが開くので、**[Permissions]** (許可) タブを選択します。

   現在のアクセス許可の一覧が表示されます。

1. アクセス許可を追加するには、**[Add users & groups]** (ユーザーとグループの追加) を選択し、続いて以下の手順を実行します。

   1. 同じデータセットの使用を許可するユーザーまたはグループを追加します。

   1. 目的のユーザーをすべて追加したら、それらのユーザーに適用する **[Permission]** (アクセス許可) を選択します。

1. (オプション) アクセス許可を編集するには、**[Viewer]** (ビューワー) または **[Owner]** (所有者) を選択します。
   + 読み取りアクセスを許可する **[Viewer]** (ビューワー) を選択します。
   + Owner ****を選択して、そのユーザーがこの Quick Sight データソースを編集、共有、または削除できるようにします。

1. (オプション) アクセス許可を取り消すときは、**[Revoke access]** (アクセス権の取り消し) を選択します。アクセス権が取り消されたユーザーは、データセットの作成、編集、共有、削除ができなくなります。

1. 完了したら、**閉じる** を選択します。

## Timestream の新しい Quick Sight データセットの追加
<a name="create-dataset-using-timestream"></a>

Timestream データ用の既存のデータソース接続を作成したら、分析に使用する Timestream データセットを作成することができます。

現在、Timestream 接続は、データセット内の 1 つのテーブルに対してのみ使用できます。1 つのデータセット内の複数の Timestream テーブルからデータを追加するには、テーブルごとに追加の Quick Sight データソース接続を作成します。

**Amazon Timestream を使用してデータセットを作成するには**

1. 左側の**データ**を選択し、下にスクロールして Timestream 接続のデータソースカードを見つけます。データソースが多数ある場合は、ページ上部の検索バーを使って、名前に部分一致するデータソースを検索できます。

1. **[Timestream]** のデータソースカードを選択し、[**Create data set (データセットの作成)]** を選択します。

1. **[Database**] (データベース) で、**[Select]** (選択) を選択して使用可能なデータベースの一覧を表示し、使用するデータベースを選択します。

1. **[Tables]** (テーブル) で、使用するテーブルを選択します。

1. **[Edit/Preview]** (編集/プレビュー) を選択します。

1. (オプション) さらにデータを追加するときは、以下の手順を実行します。

   1. 右上にある **[Add data]** (データを追加) を選択します。

   1. 別のデータに接続するときは、**[Switch data source]** (データソースの切り替え) を選択し、別のデータセットを選択します。

   1. UI のプロンプトに従ってデータの追加を完成させます。

   1. 新しいデータを同じデータセットに追加したら、**[Configure this join]** (この結合を設定します) (2 つの赤いドット) を選択します。追加した各テーブルで結合をセットアップします。

   1. 計算フィールドを追加するときは、**[Add calculated field]** (計算フィールドを追加) を選択します。

   1. SageMaker AI からモデルを追加するときは、**[SageMaker によるオーグメント]** を選択します。このオプションは Amazon Quick Enterprise Edition でのみ使用できます。

   1. 省略したいフィールドがあるときは、チェックボックスをオフにします。

   1. 変更するデータ型があれば更新します。

1. 完了したら、**[Save]** (保存) を選択し、データセットを保存して閉じます。

## 分析への Timestream データの追加
<a name="open-analysis-add-dataset-for-timestream"></a>

以下は、Amazon Timestream データセットを Quick Sight 分析に追加する方法を示しています。開始する前に、既存のデータセットに、使用する Timestream のデータが含まれていることを確認します。

**Amazon Timestream のデータを分析に追加するには**

1. 左側で **[Analyses]** (分析) を選択します。

1. 次のいずれかを行ってください。
   + 新しい分析を作成するときは、右側で **[New analysis]** (新しい分析) を選択します。
   + 既存の分析に追加するときは、編集する分析を開きます。
     + 左上の鉛筆アイコンを選択します。
     + **[Add data set]** (データセットを追加) を選択します。

1. 追加する Timestream データセットを選択します。

詳細については、「[分析での作業](https://docs.aws.amazon.com/quicksight/latest/user/working-with-analyses.html)」を参照してください。

# データソースのクォータ
<a name="data-source-limits"></a>

Amazon Quick Sight で使用するデータソースは、次のクォータに準拠する必要があります。

**Topics**
+ [インポートされたデータに対する SPICE クォータ](#spice-limits)
+ [ダイレクト SQL クエリのクォータ](#query-limits)

## インポートされたデータに対する SPICE クォータ
<a name="spice-limits"></a>

Amazon Quick Sight で新しいデータセットを作成すると、 はデータセットに追加できる行数[SPICE](spice.md)を制限します。データはクエリまたはファイルから SPICE に取り込むことができます。各ファイルには最大 2,000 列を含めることができます。それぞれの列名には最大 127 の Unicode 文字を使用できます。各フィールドには最大 2,047 個の Unicode 文字を含めることができます。新しいデータ準備エクスペリエンスを使用して SPICE データセットを作成する場合、各フィールドには最大 65,534 個の Unicode 文字を含めることができます。

より大きなセットからデータのサブセットを取得には、列の選択を解除するか、フィルタを適用してデータのサイズを縮小できます。Amazon S3 からインポートする場合、各マニフェストは最大 1,000 個のファイルを指定できます。

SPICE のクォータは次のとおりです。
+  各フィールドで 2,047 Unicode 文字。(新しいデータ準備エクスペリエンスを持つ 65,534 Unicode 文字) 
+ 列名あたり 127 の Unicode 文字
+ ファイルあたり 2,000 列
+ マニフェストあたり 1,000 ファイル
+ Standard Edition の場合、データセットごとに 2,500 万 (25,000,000) 行、または 25 GB
+ Enterprise Edition の場合、データセットごとに 20 億 (2,000,000,000) 行または 2 TB

すべてのクォータは、行レベルのセキュリティが設定された SPICE データセットにも適用されます。

まれに、大きな行を SPICE に取り込もうとすると、行のクォータに達する前に、データセットあたりのギガバイトのクォータに達することがあります。サイズは、SPICE に取り込まれた後にデータが占有する SPICE 容量に基づいています。

## ダイレクト SQL クエリのクォータ
<a name="query-limits"></a>

SPICE にデータをインポートしない場合は、容量と時間に対して異なるクォータが適用されます。接続、データセットのデータのサンプリング、ビジュアルの生成などの操作では、タイムアウトが発生することがあります。場合によっては、これらはソースのデータベースエンジンで設定されたタイムアウトのクォータであることがあります。視覚化などのその他の場合、Amazon Quick Sight は 2 分後にタイムアウトを生成します。

ただし、すべてのデータベースドライバがこの 2 分のタイムアウトに反応するわけではありません (例: Amazon Redshift) 。このような場合、クエリはレスポンスが返されるまでにかかる限り実行されるため、データベースでクエリの実行時間が長くなる可能性があります。この場合、データベースサーバーからのクエリをキャンセルして、データベースリソースを解放できます。これを行う方法に関するデータベースサーバーの指示に従います。例えば、Amazon Redshift でクエリをキャンセルする方法の詳細については、「*Amazon Redshift データベースデベロッパーガイド*」の「[Amazon Redshift でのクエリのキャンセル](https://docs.aws.amazon.com/redshift/latest/dg/cancel_query.html)」と「[Amazon Redshift でのワークロード管理の実装](https://docs.aws.amazon.com/redshift/latest/dg/cm-c-implementing-workload-management.html)」を参照してください。

直接クエリからの結果セットにはそれぞれ、最大 2,000 列を含めることができます。それぞれの列名には最大 127 の Unicode 文字を使用できます。制限より大きいテーブルからデータを取得する場合は、データのサイズを減らすために使用できるいずれかの方法を使用できます。列の選択を解除する、または、フィルタを適用することができます。SQL クエリでは、`WHERE`、`HAVING` などの述語を使用することもできます。直接クエリ中にビジュアルがタイムアウトした場合は、クエリを簡素化して実行時間を最適化するか、データを SPICE にインポートできます。

クエリのクォータは次のとおりです。
+ 列名あたり 127 の Unicode 文字。
+ 列はデータセットあたり 2,000 列。
+ ビジュアルまたはオプションのデータセットサンプルを生成するための 2 分間の制限。
+ データソースのタイムアウト制限を適用 (データベースエンジンごとに異なる) 。

# サポートされているデータ型と値
<a name="supported-data-types-and-values"></a>

Amazon Quick Sight は現在、、`Date`、`Decimal`、`Integer`および のプリミティブデータ型をサポートしています`String`。次のデータ型は、SPICE、`Date`、`Decimal-fixed`、`Decimal-float`、`Integer`、`String` でサポートされています。Quick Sight は、ブール値を整数に昇格させることで受け入れます。また、地理空間のデータ型から引き出すこともできます。地理空間データ型は、メタデータを使用して物理データ型を解釈します。緯度と経度は数値です。その他のすべての地理空間カテゴリは文字列です。

データソースとして使用するテーブルまたはファイルには、これらのデータ型に暗黙的に変換できるフィールドのみが含まれるようにします。Amazon Quick Sight は、変換できないフィールドや列をスキップします。「フィールドは、サポートされていないデータ型を使用しているため、スキップされました。」というエラーが表示された場合は、クエリまたはテーブルを変更し、サポートされていないデータ型を削除または予測します。

## 文字列とテキストデータ
<a name="strings"></a>

文字を含むフィールドまたは列は、*文字列*と呼ばれます。データ型のフィールド `STRING` は、最初はほぼすべての型のデータを含むことができます。例としては、名前、説明、電話番号、アカウント番号、JSON データ、都市、郵便番号、日付、計算に使用できる数字などがあります。これらの型は、一般的な意味でテキストデータと呼ばれることがありますが、技術的な意味では呼ばれません。Quick Sight は、データセット列のバイナリラージオブジェクトとキャラクターラージオブジェクト (BLOBsをサポートしていません。Quick Sight ドキュメントでは、「text」という用語は常に「string data」を意味します。

データを初めてクエリまたはインポートすると、Quick Sight は、日付や数値など、他のタイプとして識別されたデータを解釈しようとします。フィールドまたは列に割り当てられたデータ型が正しいことを、確認すると良いでしょう。

インポートされたデータの文字列フィールドごとに、Quick Sight は 8 バイトのフィールド長と UTF-8 でエンコードされた文字長を使用します。Amazon Quick Sight は UTF-8 ファイルエンコーディングをサポートしていますが、UTF-8 (BOM を使用) はサポートしていません。

## 日付と時刻のデータ
<a name="dates"></a>

データ型 `Date` を持つフィールドには時間データも含まれ、`Datetime` フィールドとしても知られています。Quick Sight は、[サポートされている日付形式を使用する日付](#supported-date-formats)と時刻をサポートしています。

Quick Sight は、日付データのクエリ、フィルタリング、表示に UTC 時間を使用します。日付データがタイムゾーンを指定しない場合、Quick Sight は UTC 値を引き受けます。日付データがタイムゾーンを指定すると、Quick Sight はそれを UTC 時間で表示するように変換します。たとえば、 のようなタイムゾーンオフセットを持つ日付フィールド**2015-11-01T03:00:00-08:00**は UTC に変換され、Amazon Quick Sight に として表示されます**2015-11-01T15:30:00**。

インポートされたデータの`DATE`フィールドごとに、Quick Sight は 8 バイトのフィールド長を使用します。Quick Sight は UTF-8 ファイルエンコーディングをサポートしていますが、UTF-8 (BOM を使用) はサポートしていません。

## 数値データ
<a name="numeric"></a>

数値データには、整数と小数が含まれます。データ型 `INT` の整数は、小数点以下の桁を持たない負または正の数です。Quick Sight は、大きい整数と小さい整数を区別しません。値を超える整数 `9007199254740991` または `2^53 - 1` は、ビジュアルに正確に、または正しく表示されないことがあります。

データ型 `Decimal` の小数は、小数点の前後に小数位が少なくとも 1 つ含まれている負または正の数です。ダイレクトクエリモードを選択すると、すべての非整数 10 進数型が `Decimal` としてマークされ、基盤となるエンジンは、データソースのサポートされている動作に基づいてデータポイントの精度を処理します。サポートされているデータソースのタイプの詳細については、「[サポートされているデータ型と値](#supported-data-types-and-values)」を参照してください。

データセットを に保存する場合SPICE、10 進値を `fixed`または 10 `float`進タイプとして保存できます。 `Decimal-fixed` データ型は、合計 18 桁、小数点以下 4 桁まで使用できる 10 進数 (`18,4`) の形式を使用します。 `Decimal-fixed` データ型は正確な数学演算を実行するのに適していますが、Quick Sight は、値が に取り込まれるときに値を最も近い 10,000 位に四捨五入しますSPICE。

`Decimal-float` データ型は、値に対して約 16 有効桁の精度を提供します。有効桁は、小数点以下の桁数が多い数値と非常に大きい数値を同時にサポートするために、小数点のいずれの側にも適用できます。例えば、`Decimal-float` データ型は、数値 `12345.1234567890` または数値 `1234567890.12345` をサポートします。`0` に近い非常に小さな数値を扱う場合、`Decimal-float` データ型は小数点の右側で最大 15 桁までサポートします (例: `0.123451234512345`)。このデータ型がサポートする最大値は `1.8 * 10^308` です。これは、データセットでのオーバーフローエラーの発生確率を最小限に抑えるためです。

`Decimal-float` データ型は不正確で、一部の値は実際の値ではなく、近似値として保存されます。これにより、特定の値を保存したり、返したりするときに、わずかな不一致が生じる可能性があります。`Decimal-float` データ型には次の考慮事項が適用されます。
+ 使用しているデータセットが Amazon S3 データソースからのものである場合、SPICE はすべての 10 進数の値に `Decimal-float` の 10 進数型を割り当てます。
+ 使用しているデータセットがデータベースからのものである場合、SPICE はデータベース内で値が割り当てられている 10 進数型を使用します。例えば、データベース内で値に固定小数点の数値が割り当てられている場合、その値は SPICE の `Decimal-fixed` 型になります。

`Decimal-float` データ型に変換できるフィールドを含む既存の SPICE データセットの場合、**[データセットを編集]** ページにポップアップが表示されます。既存のデータセットのフィールドを `Decimal-float` データ型に変換するには、**[フィールドを更新]** を選択します。オプトインしたくない場合は、**[フィールドを更新しない]** を選択します。データセットが保存および公開されるまで、**[データセットを編集]** ページを開くたびに **[フィールドを更新]** のポップアップが表示されます。

## サポートされる外部データソースのデータ型
<a name="supported-data-types"></a>

次の表に、Amazon Quick Sight で次のデータソースを使用する場合にサポートされるデータ型を示します。


****  

| データベースエンジンまたはソース | 数値データ型 | 文字列データ型 | 日時データ型 | ブールデータ型 | 
| --- | --- | --- | --- | --- | 
|   **Amazon Athena、Presto、Starburst、Trino**  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  | 
|  **Amazon Aurora**、**MariaDB**、**MySQL**  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  | 
|   **Amazon OpenSearch Service**  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  | 
|  **Oracle**  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html) | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html) | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html) | bit | 
|   **[PostgreSQL]**   |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  | 
|   **Apache Spark**  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  | 
|   **Snowflake**   |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  | 
|   **Microsoft SQL Server**   |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  | 

### サポートされている日付形式
<a name="supported-date-formats"></a>

Amazon Quick Sight は、このセクションで説明されている日付と時刻の形式をサポートしています。Amazon Quick Sight にデータを追加する前に、日付形式に互換性があるかどうかを確認します。サポートされていない形式を使用する必要がある場合は、「[サポートされていない日付またはカスタム日付の使用](using-unsupported-dates.md)」を参照してください。

サポートされている形式は、データソースのタイプに応じて以下のように異なります。


| データソース | クロック | 日付の書式 | 
| --- | --- | --- | 
|  ファイルのアップロード Amazon S3 ソース Athena Salesforce  |  24 時間制と 12 時間制の両方  |  サポートされている日付と時刻の形式は、Joda APIのドキュメントに記載されています。 Joda 日付書式の一覧については、Joda ウェブサイトの「[Class DateTimeFormat](http://www.joda.org/joda-time/apidocs/org/joda/time/format/DateTimeFormat.html)」を参照してください。 メモリ (SPICE) に保存されているデータセットの場合、Amazon Quick Sight は `Jan 1, 0001 00:00:00 UTC`～ の範囲の日付をサポートします`Dec 31, 9999, 23:59:59 UTC`。  | 
|  リレーショナルデータベースソース  |  24 時間制のみ  |  次のデータおよび時刻の形式: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/supported-data-types-and-values.html)  | 

### データでサポートされていない値
<a name="unsupported-data-values"></a>

フィールドに Amazon Quick Sight がフィールドに割り当てるデータ型に準拠しない値が含まれている場合、それらの値を含む行はスキップされます。例えば、以下のソースデータがあるとします。

```
Sales ID    Sales Date    Sales Amount
--------------------------------------
001        10/14/2015        12.43
002        5/3/2012          25.00
003        Unknown           18.17
004        3/8/2009          86.02
```

Amazon Quick Sight は日付フィールド**Sales Date**として解釈し、日付以外の値を含む行を削除するため、次の行のみがインポートされます。

```
Sales ID    Sales Date    Sales Amount
--------------------------------------
001        10/14/2015        12.43
002        5/3/2012          25.00
004        3/8/2009          86.02
```

場合によっては、JDBC ドライバがソースデータベースエンジンに対して解釈できない値がデータベースフィールドに含まれていることがあります。このような場合、解釈不能な値は null に置き換えられ、行をインポートできます。この問題が発生することがわかっているのは、MySQL の日付、日時、およびタイムスタンプのフィールドで値がすべてゼロである (例: **0000-00-00 00:00:00**) 場合だけです。例えば、以下のソースデータがあるとします。

```
Sales ID    Sales Date                Sales Amount
---------------------------------------------------
001        2004-10-12 09:14:27        12.43
002        2012-04-07 12:59:03        25.00
003        0000-00-00 00:00:00        18.17
004        2015-09-30 01:41:19        86.02
```

この場合、以下のデータがインポートされます。

```
Sales ID    Sales Date                Sales Amount
---------------------------------------------------
001        2004-10-12 09:14:27        12.43
002        2012-04-07 12:59:03        25.00
003        (null)                     18.17
004        2015-09-30 01:41:19        86.02
```

# データセットの使用
<a name="working-with-datasets"></a>

データセットは Quick Sight 分析の基盤であり、分析とダッシュボードを強化する準備済みで構造化されたデータソースとして機能します。データソースからデータセットを作成したら、ライフサイクルを通じてデータセットを効果的に管理して、信頼性、安全性、共同分析を確保する必要があります。

このセクションでは、データセットの編集とバージョニングからチームメンバーとの共有、セキュリティコントロールの実装まで、データセット管理ワークフロー全体について説明します。共同分析をサポートしながらデータセットの整合性を維持し、データセットに依存する分析を追跡し、行レベルと列レベルの両方のセキュリティを実装して機密情報を保護する方法について説明します。チーム使用のためのデータセットの準備、分析問題のトラブルシューティング、データガバナンスポリシーの実装など、これらのトピックは Quick Sight での効果的なデータセット管理に不可欠な知識を提供します。

**Topics**
+ [データセットの作成](creating-data-sets.md)
+ [データセットの編集](edit-a-data-set.md)
+ [以前の公開済みバージョンへのデータセットの復元](dataset-versioning.md)
+ [データセットの複製](duplicate-a-data-set.md)
+ [データセットの共有](sharing-data-sets.md)
+ [データセットを使用するダッシュボードと分析の追跡](track-analytics-that-use-dataset.md)
+ [Amazon Quick でのデータセットパラメータの使用](dataset-parameters.md)
+ [Amazon Quick での行レベルのセキュリティの使用](row-level-security.md)
+ [データセットへのアクセスを制限するために列レベルのセキュリティを使用する](restrict-access-to-a-data-set-using-column-level-security.md)
+ [Amazon Quick での IAM ロールとしてのクエリの実行](datasource-run-as-role.md)
+ [データセットの削除](delete-a-data-set.md)
+ [分析へのデータセットの追加](adding-a-data-set-to-an-analysis.md)

# データセットの作成
<a name="creating-data-sets"></a>

 Amazon Quick では、新規または既存のデータソースからデータセットを作成できます。さまざまなデータベースデータソースを使用して、Amazon Quick にデータを提供できます。これには、Amazon RDS インスタンスと Amazon Redshift クラスターが含まれます。また、MariaDB、Microsoft SQL Server、MySQL、Oracle、および、組織内、Amazon EC2、または類似の環境の PostgreSQL インスタンスなども含まれます。

**Topics**
+ [新しいデータソースを使用したデータセットの作成](creating-data-sets-new.md)
+ [既存のデータソースを使用したデータセットの作成](create-a-data-set-existing.md)
+ [Amazon Quick で既存のデータセットを使用してデータセットを作成する](create-a-dataset-existing-dataset.md)

# 新しいデータソースを使用したデータセットの作成
<a name="creating-data-sets-new"></a>

Amazon RDS、Amazon Redshift、Amazon EC2 などの AWS サービスに基づいてデータセットを作成する場合、そのソースからのデータを消費するときにデータ転送料金が適用される場合があります。これらの料金は、その AWS リソースが Amazon Quick アカウントに AWS リージョン 選択したホームにあるかどうかによっても異なる場合があります。料金の詳細については、該当するサービスの料金表ページを参照してください。

データベースの新しいデータセットを作成する際に、1 つのテーブルを選択したり、複数のテーブルを結合させたり、SQL クエリを作成して必要なデータを取得したりすることが可能です。データセットが直接クエリを使用するか、その代わりにデータを [SPICE](spice.md) に保存するかを変更することもできます。

**新規データセットを作成するには**

1. データセットを作成するには、**データ**ページで**新しいデータセット**を選択します。次に、既存のデータセットまたはデータソースに基づいてデータセットを作成するか、新しいデータソースに接続し、そのデータソースに基づいてデータセットを作成します。

1. データソースへの接続情報を指定します。
   + ローカルのテキストまたは Microsoft Excel ファイルの場合は、ファイルの場所を特定してファイルをアップロードするだけです。
   + Amazon S3 の場合、使用するファイルまたはバケットを特定するマニフェスト、およびターゲットファイルのインポート設定を指定する必要があります。
   + Amazon Athena の場合、 AWS アカウントのすべての Athena データベースが返されます。追加の認証情報は必要ありません。
   + Salesforce の場合、接続のための認証情報を指定します。
   + Amazon Redshift、Amazon RDS、Amazon EC2、またはその他のデータベースデータソースの場合、データをホストするサーバーおよびデータベースに関する情報を指定する必要があります。また、そのデータベースインスタンスの有効な認証情報も指定する必要があります。

# データベースからのデータセットの作成
<a name="create-a-database-data-set"></a>

以下の手順では、データベースデータソースに接続してデータセットを作成する方法について説明します。Amazon Quick アカウントが自動検出した AWS データソースからデータセットを作成するには、 を使用します[自動検出された Amazon Redshift クラスターまたは Amazon RDS インスタンスからのデータセットの作成](#create-a-data-set-autodiscovered)。他のデータベースデータソースからデータセットを作成するには、[自動検出以外のデータベースを使用したデータセットの作成](#create-a-data-set-database) を使用します。

## 自動検出された Amazon Redshift クラスターまたは Amazon RDS インスタンスからのデータセットの作成
<a name="create-a-data-set-autodiscovered"></a>

以下の手順に従って、自動検出された AWS データソースへの接続を作成します。

**自動検出された AWS データソースへの接続を作成するには**

1. [データソースのクォータ](data-source-limits.md) をチェックし、ターゲットテーブルまたはクエリがデータソースのクォータを超えていないことを確認します。

1. 使用する予定のデータベースの認証情報に、「[必要なアクセス許可](required-permissions.md)」で説明している適切なアクセス許可があることを確認します。

1. 「」の手順に従って、Amazon Quick Access のクラスターまたはインスタンスが設定されていることを確認します[ネットワークとデータベースの設定要件](configure-access.md)。

1. Amazon クイックスタートページで、**データ**を選択します。

1. **Create ** を選択し、**New データセット**を選択します。

1. 接続する AWS サービスに応じて、**RDS** または **Redshift 自動検出**アイコンを選択します。

1. データソースの接続情報を以下のように入力します。
   + [**Data source name (データソース名)**] に、データソースの名前を入力します。
   + [**Instance ID (インスタンス ID)**] で、接続先のインスタンスまたはクラスターの名前を選択します。
   + [**Database name (データベース名)**] には、[**Instance ID (インスタンス ID)**] のクラスターまたはインスタンスのデフォルトデータベースが表示されています。そのクラスターまたはインスタンスの別のデータベースを使用するには、その名前を入力します。
   + **[UserName]** で、次を実行するための許可を持つユーザーアカウントのユーザー名を入力します。
     + ターゲットデータベースにアクセスします。
     + 使用するデータベース内の（`SELECT` ステートメントを実行する）テーブルを読み取ります。
   + **[パスワード]** で、入力したユーザーアカウントのパスワードを入力します。

1. [**Validate connection (接続を検証)**] を選択して、接続情報が正しいことを確認します。

1. 接続が検証された場合は、[**Create data source**] を選択します。検証されなかった場合は、接続情報を修正してから、検証をもう一度試します。
**注記**  
Amazon Quick は、Secure Sockets Layer (SSL) を使用して、Amazon RDS インスタンスと Amazon Redshift クラスターへの接続を自動的に保護します。これを有効にするために何かを行う必要はありません。

1. 次のいずれかを選択します。
   + **独自 SQL**

     次の画面では、[**Use custom SQL (独自 SQL を使用する)**] オプションを使用してクエリを記述することができます。これにより、[**Enter custom SQL query (独自 SQL を入力する)**] という名前の画面が開き、クエリの名前を入力して SQL を入力できます。最良の結果を得るには、SQL エディタでクエリを作成し、このウィンドウに貼り付けます。クエリに名前を付けて入力したら、[**Edit/Preview data (データの編集/プレビュー)**] または [**Confirm query (クエリの確認)**] を選択できます。または、[**Edit/Preview data (データの編集/プレビュー)**] を選択して、すぐにデータ準備に移動することができます。SQL を検証し、エラーがないことを確認するには、[**Confirm query (クエリの確認)**] を選択します。
   + **テーブルの選択**

     特定のテーブルに接続するには、**[Schema: contain sets of tables]** (スキーマ: テーブルのセットを含む) で、**[Select]** (選択) をクリックしてからスキーマを選択します。データベース内の 1 つのスキーマのみが存在する場合は、そのスキーマが自動的に選択され、スキーマの選択オプションは表示されません。

     分析を作成する前にデータ準備を行うには、[**Edit/Preview data**] を選択してデータ準備を開きます。他のテーブルに結合する場合は、このオプションを使用します。

     それ以外の場合は、テーブルを選択してから、[**選択**] を選択します。

1. 次のいずれかのオプションを選択します。
   + 分析を作成する前に、データを準備します。これを行うには、[**Edit/Preview data (データの編集/プレビュー)]** を選択して、選択したテーブルのデータ準備を開きます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。
   + テーブルデータをそのまま使用してデータセットと分析を作成し、そのデータセットデータを SPICE にインポートしてパフォーマンスを向上させます (推奨)。これを行うには、テーブルサイズと SPICE インジケータをチェックして、十分な容量があるかどうかを確認します。

     十分な SPICE 容量がある場合は、**[Import to SPICE for quicker analytics]** (迅速な分析のために SPICE へインポート) を選択してから、**[Visualize]** (視覚化) をクリックして分析を作成します。
**注記**  
SPICE を使用したいが空き容量が不足しているという場合は、**[Edit/Preview data]** (データの編集/プレビュー) をクリックします。データ準備では、データセットからフィールドを削除してサイズを小さくすることができます。フィルタを適用したり、返される行または列の数を減らす SQL クエリを記述することもできます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。
   + データセットを作成し、そのテーブルデータをそのまま使用して分析を作成し、データをデータベースから直接照会するには、**[Directly query your data]** (データクエリを直接実行) オプションを選択します。次に、[**Visualize (視覚化)**] を選択して分析を作成します。

## 自動検出以外のデータベースを使用したデータセットの作成
<a name="create-a-data-set-database"></a>

自動検出された Amazon Redshift クラスターまたは Amazon RDS インスタンス以外のデータベースへの接続を作成するには、次の手順に従います。このようなデータベースには、別の にある、 AWS リージョン または別の AWS アカウントに関連付けられている Amazon Redshift クラスターと Amazon RDS インスタンスが含まれます。また、MariaDB、Microsoft SQL Server、MySQL、Oracle、および、Amazon EC2 またはその他アクセス可能な環境にあるオンプレミスの PostgreSQL の各インスタンスも含まれます。

**自動検出された Amazon Redshift クラスターまたは RDS インスタンスではないデータベースへの接続を作成するには**

1. [データソースのクォータ](data-source-limits.md) をチェックし、ターゲットテーブルまたはクエリがデータソースのクォータを超えていないことを確認します。

1. 使用する予定のデータベースの認証情報に、「[必要なアクセス許可](required-permissions.md)」で説明している適切なアクセス権限があることを確認します。

1. 「」の手順に従って、Amazon Quick Access のクラスターまたはインスタンスが設定されていることを確認します[ネットワークとデータベースの設定要件](configure-access.md)。

1. Amazon クイックスタートページで、**データの管理**を選択します。

1. **Create ** を選択し、**New データセット**を選択します。

1. 別の または別の AWS アカウント AWS リージョン に関連付けられている Amazon **Redshift クラスターに接続する場合は、Redshift 手動接続**アイコンを選択します。または、該当するデータベース管理システムのアイコンを選択し、Amazon Aurora、MariaDB、Microsoft SQL Server、MySQL、Oracle、PostgreSQL いずれかのインスタンスに接続します。

1. データソースの接続情報を以下のように入力します。
   + [**Data source name (データソース名)**] に、データソースの名前を入力します。
   + [**Database server (データベースサーバー)**] で、次のいずれかの値を入力します。
     + Amazon Redshift クラスターまたは Amazon RDS インスタンスの場合は、クラスターまたはインスタンスのエンドポイントを、ポート番号を付けずに入力します。たとえば、エンドポイントの値が「`clustername.1234abcd.us-west-2.redshift.amazonaws.com:1234`」である場合は、「`clustername.1234abcd.us-west-2.redshift.amazonaws.com`」と入力します。エンドポイント値は、クラスターの**エンドポイント**フィールドまたは AWS コンソールのインスタンスの詳細ページから取得できます。
     + MariaDB、Microsoft SQL Server、MySQL、Oracle または PostgreSQL の Amazon EC2 インスタンスの場合は、パブリック DNS アドレスを入力します。パブリック DNS 値は、Amazon EC2 コンソールのインスタンス詳細ペインにある、**[Public DNS]** (パブリック DNS) フィールドから取得できます。
     + MariaDB、Microsoft SQL Server、MySQL、Oracle または PostgreSQL の Amazon EC2インスタンス以外のインスタンスの場合は、データベースサーバーのホスト名またはパブリック IP アドレスを入力します。接続のセキュリティ保護のために Secure Sockets Layer (SSL) を使用している (推奨) 場合は、SSL 証明書で要請されている情報に一致するホスト名を指定する必要があります。受け入れられる証明書の一覧については、「[Amazon Quick SSL および CA 証明書](configure-access.md#ca-certificates)」を参照してください。
   + [**Port (ポート)**] に、クラスターまたはインスタンスで接続に使用されているポート番号を入力します。
   + [**Database name (データベース名)**] に、使用するデータベースの名前を入力します。
   + **[UserName]** で、次を実行するための許可を持つユーザーアカウントのユーザー名を入力します。
     + ターゲットデータベースにアクセスします。
     + 使用するデータベース内の（`SELECT` ステートメントを実行する）テーブルを読み取ります。
   + **[パスワード]** で、入力したユーザーアカウントに関連付けられているパスワードを入力します。

1. (オプション) Amazon Redshift クラスター以外に接続していて、接続を保護する必要がない場合は、**[Enable SSL]** (SSL の有効化) がオフになっていることを確認します。保護されていない接続では改ざんされやすいため、*このチェックボックスはオンのままにしておくことをお勧めします*。

   ターゲットインスタンスで SSL を使用して接続を保護する方法の詳細については、使用しているデータベース管理システムのドキュメントを参照してください。Amazon Quick は、自己署名 SSL 証明書を有効として受け入れません。受け入れられる証明書の一覧については、「[Amazon Quick SSL および CA 証明書](configure-access.md#ca-certificates)」を参照してください。

   Amazon Quick は、SSL を使用して Amazon Redshift クラスターへの接続を自動的に保護します。これを有効にするために何かを行う必要はありません。

   Presto や Apache Spark などの一部のデータベースは、Amazon Quick が接続する前に追加の要件を満たす必要があります。詳細については、「[Presto を使用したデータソースの作成](create-a-data-source-presto.md)」または「[Apache Spark を使用したデータソースの作成](create-a-data-source-spark.md)」を参照してください。

1. (オプション) [**Validate connection (接続を検証)**] を選択して、接続情報が正しいことを確認します。

1. 接続が検証された場合は、[**Create data source**] を選択します。検証されなかった場合は、接続情報を修正してから、検証をもう一度試します。

1. 次のいずれかを選択します。
   + **独自 SQL**

     次の画面では、[**Use custom SQL (独自 SQL を使用する)**] オプションを使用してクエリを記述することができます。これにより、[**Enter custom SQL query (独自 SQL を入力する)**] という名前の画面が開き、クエリの名前を入力して SQL を入力できます。最良の結果を得るには、SQL エディタでクエリを作成し、このウィンドウに貼り付けます。クエリに名前を付けて入力したら、[**Edit/Preview data (データの編集/プレビュー)**] または [**Confirm query (クエリの確認)**] を選択できます。または、[**Edit/Preview data (データの編集/プレビュー)**] を選択して、すぐにデータ準備に移動することができます。SQL を検証し、エラーがないことを確認するには、[**Confirm query (クエリの確認)**] を選択します。
   + **テーブルの選択**

     特定のテーブルに接続するには、**[Schema: contain sets of tables]** (スキーマ: テーブルのセットを含む) で、**[Select]** (選択) をクリックしてからスキーマを選択します。データベース内の 1 つのスキーマのみが存在する場合は、そのスキーマが自動的に選択され、スキーマの選択オプションは表示されません。

     分析を作成する前にデータ準備を行うには、[**Edit/Preview data**] を選択してデータ準備を開きます。他のテーブルに結合する場合は、このオプションを使用します。

     それ以外の場合は、テーブルを選択してから、[**選択**] を選択します。

1. 次のいずれかのオプションを選択します。
   + 分析を作成する前に、データを準備します。これを行うには、[**Edit/Preview data (データの編集/プレビュー)]** を選択して、選択したテーブルのデータ準備を開きます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。
   + テーブルデータをそのまま使用してデータセットと分析を作成し、そのデータセットデータを SPICE にインポートしてパフォーマンスを向上させます (推奨)。これを行うには、テーブルサイズと SPICE インジケータをチェックして、十分な容量があるかどうかを確認します。

     十分な SPICE 容量がある場合は、**[Import to SPICE for quicker analytics]** (迅速な分析のために SPICE へインポート) を選択してから、**[Visualize]** (視覚化) をクリックして分析を作成します。
**注記**  
SPICE を使用したいが空き容量が不足しているという場合は、**[Edit/Preview data]** (データの編集/プレビュー) をクリックします。データ準備では、データセットからフィールドを削除してサイズを小さくすることができます。フィルタを適用したり、返される行または列の数を減らす SQL クエリを記述することもできます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。
   + テーブルデータをそのまま使用してデータセットと分析を作成し、データベースから直接データをクエリします。そのためには、[**Directly query your data (データを直接クエリする)**] オプションを選択します。次に、[**Visualize (視覚化)**] を選択して分析を作成します。

# 既存のデータソースを使用したデータセットの作成
<a name="create-a-data-set-existing"></a>

Salesforce、 AWS データストア、またはその他のデータベースデータソースに最初の接続を行うと、Amazon Quick は接続情報を保存します。これにより、データソースが **[Create a Data Set]** (データセットの作成) ページの **[FROM EXISTING DATA SOURCES]** (既存データソースから) セクションに追加されます。これらの既存のデータソースを使用して、接続情報を再度指定することなく、新しいデータセットを作成できます。

## 既存の Amazon S3 データソースを使用したデータセットの作成
<a name="create-a-data-set-existing-s3"></a>

既存の Amazon S3 データソースを使用してデータセットを作成するには、次の手順に従います。

**既存の S3 データソースを使用してデータセットを作成するには**

1. Amazon クイックスタートページで、**データ**を選択します。

1. **「作成**」を選択し、**「新しいデータセット**」を選択します。

1. 使用する Amazon S3 データソースを選択します。

1. データセットを作成する前にデータを準備するには、**[Edit/Preview data]** (データの編集/プレビュー) を選択します。または、データをそのまま使用する分析を作成するには、[**Visualize (視覚化)**] を選択します。

## 既存の Amazon Athena データソースを使用したデータセットの作成
<a name="create-a-data-set-existing-athena"></a>

既存の Amazon Athena データソースを使用してデータセットを作成するには、以下の手順を実行します。

**既存の Athena 接続プロファイルからデータセットを作成するには**

1. Amazon クイックスタートページで、**データ**を選択します。

1. **Create ** を選択し、**New データセット**を選択します。

   使用する既存のデータソースの接続プロファイルアイコンを選択します。接続プロファイルには、データソースアイコンと、接続を作成したユーザーによって提供された名前がラベル付けされています。

1. [**データセットを作成**] を選択します。

   Amazon Quick は、Athena ワークグループのみに基づいて、このデータソースの接続プロファイルを作成します。データベースとテーブルは保存されません。

1. **[Choose your table]** (テーブルの選択) 画面で、以下のいずれかを実行します。
   + SQL クエリを作成するには、**[Use custom SQL]** (カスタム SQL を使用) を選択する。
   + データベースとテーブルを選択するには、まず **[Database]** リストからデータベースを選択します。次に、そのデータベースに表示されたリストからテーブルを選択します。

## 既存の Salesforce データソースを使用してデータセットを作成する
<a name="create-a-data-set-existing-salesforce"></a>

既存の Salesforce データソースを使用してデータセットを作成するには、次の手順に従います。

**既存の Salesforce データソースを使用したデータセットの作成**

1. Amazon クイックスタートページで、**データ**を選択します。

1. **Create ** を選択し、**New データセット**を選択します。

1. 使用する Salesforce データソースを選択します。

1. [**Create Data Set**] を選択します。

1. 次のいずれかを選択します。
   + **独自 SQL**

     次の画面では、[**Use custom SQL (独自 SQL を使用する)**] オプションを使用してクエリを記述することができます。これにより、[**Enter custom SQL query (独自 SQL を入力する)**] という名前の画面が開き、クエリの名前を入力して SQL を入力できます。最良の結果を得るには、SQL エディタでクエリを作成し、このウィンドウに貼り付けます。クエリに名前を付けて入力したら、[**Edit/Preview data (データの編集/プレビュー)**] または [**Confirm query (クエリの確認)**] を選択できます。または、[**Edit/Preview data (データの編集/プレビュー)**] を選択して、すぐにデータ準備に移動することができます。SQL を検証し、エラーがないことを確認するには、[**Confirm query (クエリの確認)**] を選択します。
   + **テーブルの選択**

     特定のテーブルに接続する場合は、**[Data elements:contain your data]**] (データ要素: データを含む) で、**[Select]** (選択) をクリックしてから **[REPORT]** (レポート) または **[OBJECT]** (オブジェクト) のいずれかを選択します。

     分析を作成する前にデータ準備を行うには、[**Edit/Preview data**] を選択してデータ準備を開きます。他のテーブルに結合する場合は、このオプションを使用します。

     それ以外の場合は、テーブルを選択してから、[**選択**] を選択します。

1. 次の画面で、次のいずれかのオプションを選択します。
   + データセットを作成し、そのデータをそのまま使用して分析を作成するには、**[Visualize]** (視覚化する) を選択します。
**注記**  
十分な [SPICE](spice.md) 容量がない場合は、**[Edit/Preview data]** (データの編集/プレビュー) を選択します。データ準備では、データセットからフィールドを除去してデータセットのサイズを減らしたり、返される行数を減らすフィルターを適用したりできます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。
   + 分析を作成する前にデータ準備を行うには、[**Edit/Preview data**] を選択して、選択したレポートまたはオブジェクトのためのデータ準備を開きます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。

## 既存のデータベースデータソースを使用したデータセットの作成
<a name="create-a-data-set-existing-database"></a>

既存のデータベースデータソースを使用してデータセットを作成するには、次の手順に従います。

**既存のデータベースデータソースを使用してデータセットを作成するには**

1. Amazon クイックスタートページで、**データ**を選択します。

1. **Create** を選択し、**New データセット**を選択します。

1. 使用するデータベースデータソースを選択し、**データセットの作成**を選択します。

1. 次のいずれかを選択します。
   + **独自 SQL**

     次の画面では、[**Use custom SQL (独自 SQL を使用する)**] オプションを使用してクエリを記述することができます。これにより、[**Enter custom SQL query (独自 SQL を入力する)**] という名前の画面が開き、クエリの名前を入力して SQL を入力できます。最良の結果を得るには、SQL エディタでクエリを作成し、このウィンドウに貼り付けます。クエリに名前を付けて入力したら、[**Edit/Preview data (データの編集/プレビュー)**] または [**Confirm query (クエリの確認)**] を選択できます。または、[**Edit/Preview data (データの編集/プレビュー)**] を選択して、すぐにデータ準備に移動することができます。SQL を検証し、エラーがないことを確認するには、[**Confirm query (クエリの確認)**] を選択します。
   + **テーブルの選択**

     特定のテーブルに接続するには、**[Schema: contain sets of tables]** (スキーマ: テーブルのセットを含む) で、**[Select]** (選択) をクリックしてからスキーマを選択します。データベース内の 1 つのスキーマのみが存在する場合は、そのスキーマが自動的に選択され、スキーマの選択オプションは表示されません。

     分析を作成する前にデータ準備を行うには、[**Edit/Preview data**] を選択してデータ準備を開きます。他のテーブルに結合する場合は、このオプションを使用します。

     それ以外の場合は、テーブルを選択してから、[**選択**] を選択します。

1. 次のいずれかのオプションを選択します。
   + 分析を作成する前に、データを準備します。これを行うには、[**Edit/Preview data (データの編集/プレビュー)]** を選択して、選択したテーブルのデータ準備を開きます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。
   + テーブルデータをそのまま使用してデータセットと分析を作成し、そのデータセットデータを [SPICE](spice.md) にインポートしてパフォーマンスを向上させます (推奨)。これを行うには、SPICE インジケータをチェックして、十分な容量があるかどうかを確認します。

     十分な SPICE 容量がある場合は、**[Import to SPICE for quicker analytics]** (迅速な分析のために SPICE へインポート) を選択してから、**[Visualize]** (視覚化) をクリックして分析を作成します。
**注記**  
SPICE を使用したいが空き容量が不足しているという場合は、**[Edit/Preview data]** (データの編集/プレビュー) をクリックします。データ準備では、データセットからフィールドを削除してサイズを小さくすることができます。フィルタを適用したり、返される行または列の数を減らす SQL クエリを記述することもできます。データ準備の詳細については、「[データセットサンプルの準備](preparing-data-sets.md)」を参照してください。
   + テーブルデータをそのまま使用してデータセットと分析を作成し、データベースから直接データをクエリします。そのためには、[**Directly query your data (データを直接クエリする)**] オプションを選択します。次に、[**Visualize (視覚化)**] を選択して分析を作成します。

# Amazon Quick で既存のデータセットを使用してデータセットを作成する
<a name="create-a-dataset-existing-dataset"></a>

Amazon Quick でデータセットを作成したら、ソースとして使用して追加のデータセットを作成できます。これを行うと、親データセットに含まれるすべてのデータ準備 (結合や計算フィールドなど) が保持されます。新しいデータの結合やデータのフィルタリングなど、新しい子データセット内のデータに準備を追加できます。また、子データセットに対して独自のデータ更新スケジュールを設定し、それを使用するダッシュボードと分析を追跡することもできます。

RLS ルールが有効になっているデータセットをソースとして使用して作成された子データセットは、親データセットの RLS ルールを継承します。より大きな親データセットから子データセットを作成するユーザーには、親データセットでアクセスできるデータのみが表示されます。次に、継承された RLS ルールに加えて、新しい子データセットにさらに RLS ルールを追加して、新しいデータセット内のデータにアクセスできるユーザーをさらに管理できます。子データセットは、直接クエリで RLS ルールが有効になっているデータセットからのみ作成できます。

既存のクイックデータセットからデータセットを作成すると、次の利点があります。
+ **データセットの一元管理** - データエンジニアは、組織内の複数のチームのニーズに合わせて簡単に拡張できます。これを行うには、組織の主要データモデルを記述するいくつかの汎用データセットを開発し、維持することができます。
+ **データソース管理の削減** – ビジネスアナリスト (BAs) は、多くの場合、データベースへのアクセスのリクエスト、データベース認証情報の管理、適切なテーブルの検索、クイックデータ更新スケジュールの管理に多くの時間と労力を費やします。既存のデータセットから新しいデータセットを構築することは、BA がデータベースからの raw データでゼロから開始する必要がないことを意味します。キュレートされたデータから始めることができます。
+ **事前定義された主要メトリクス**：既存のデータセットからデータセットを作成することにより、データエンジニアは、企業の多くの組織にわたって重要なデータ定義を一元的に定義および維持できます。例としては、売上高の伸びと純差益還元などがあります。この機能を使用すると、データエンジニアはこれらの定義に変更を配信することもできます。このアプローチは、ビジネスアナリストが適切なデータの視覚化をより迅速かつ確実に開始できることを意味します。
+ **データをカスタマイズする柔軟性** - 既存のデータセットからデータセットを作成することで、ビジネスアナリストは、自分のビジネスニーズに合わせてデータセットを柔軟にカスタマイズできます。これにより、他のチームのデータが中断される心配を回避できます。

例えば、あなたは 5 人のデータエンジニアで構成されるeコマース中心チームの一員であるとします。自分と自身のチームは、データベース内の販売、注文、キャンセル、返品データにアクセスできます。スキーマを介して 18 個の他のディメンションテーブルを結合することで、クイックデータセットを作成しました。チームが作成した主要メトリクスは、計算フィールド、注文商品販売 (OPS) です。その定義は次のとおりです。OPS = 製品数量 x 料金。

チームは、8 か国の 10 の異なるチームをまたぐ 100 人以上のビジネスアナリストにサービスを提供しています。これらは、クーポンチーム、アウトバウンドマーケティングチーム、モバイルプラットフォームチーム、レコメンデーションチームです。これらのチームはすべて、各自のビジネスラインを分析するためのベースとして OPS メトリクスを使用します。

何百もの接続されていないデータセットを手動で作成して維持するのではなく、チームはデータセットを再利用して、組織全体のチームに対して複数のレベルのデータセットを作成します。これにより、データ管理が一元化され、各チームがそれぞれのニーズに合わせてデータをカスタマイズできるようになります。同時に、メトリクス定義の更新などの更新がデータに同期され、行レベルおよび列レベルのセキュリティが維持されます。例えば、組織内の個々のチームが集中型データセットを使用できます。その後、チーム固有のデータと組み合わせて、新しいデータセットを作成し、その上に解析を構築できます。

主要 OPS メトリクスの使用に加えて、組織内の他のチームは、作成した一元化されたデータセットの列メタデータを再利用できます。例えば、データエンジニアリングチームは、一元化されたデータセット内で*名前*、*説明*、*データ型*、および*フォルダ*などのメタデータを定義できます。それ以降の全てのチームが使用できます。

**注記**  
Amazon Quick は、1 つのデータセットから最大 2 つの追加レベルのデータセットの作成をサポートします。  
例えば、親データセットから、子データセットを作成し、孫データセットを合計 3 つのデータセットレベルで作成できます。

## 既存のデータセットからのデータセットの作成
<a name="create-a-dataset-existing-dataset-how-to"></a>

以下の手順に従って、既存のデータソースを使用してデータセットを作成します。

**既存のデータセットからデータセットを作成するには**

1. クイックスタートページから、左側のペインで**データ**を選択します。

1. **Create** を選択し、新しいデータセットの作成に使用するデータセットを選択します。

1. 対象のデータセットのページが開くので、**[Use in analysis]** (分析で使用)、**[Use in dataset]** (データセットで使用) の順に選択します。

   データ準備ページが開き、計算フィールド、結合、セキュリティ設定など、親データセットのすべてのものがプリロードされます。

1. 開いたデータ準備ページで、左下の [**クエリモード**]、データセットが元の、親データセットから変更と更新を取り込む方法を選択します。以下のオプションを選択できます。
   + **直接クエリ** - デフォルトのクエリモードです。このオプションを選択すると、関連付けられたデータセット、分析、またはダッシュボードを開くと、このデータセットのデータは自動的に更新されます。ただし、次のような制限があります。
     + 親データセットが直接クエリを許可している場合、子データセットで直接クエリモードを使用できます。
     + 結合に複数の親データセットがある場合、すべての親が同じ基になるデータソースの場合にのみ、子データセットの直接クエリモードを選択できます。例えば、同じ Amazon Redshift 接続などです。
     + 直接クエリは、単一の SPICE 親データセットでサポートされています。結合内の複数の SPICE 親データセットではサポートされません。
   + **SPICE** - このオプションを選択する場合は、新しいデータセットの親データセットとの同期用にスケジュールを設定できます。データセットの SPICE 更新スケジュールの作成に関する詳細については、[SPICE データの更新](refreshing-imported-data.md) を参照してください。

1. (オプション) 分析用にデータを準備します。データ準備の詳細については、「[Amazon Quick Sight でのデータの準備](preparing-data.md)」を参照してください。

1. (オプション) 行レベルまたは列レベルのセキュリティ(RLS/CLS) を設定して、データセットへのアクセスを制限します。RLS の設定の詳細については、「[データセットへのアクセスを制限するためのユーザーベースのルールでの行レベルのセキュリティの使用ユーザーベースのルールの使用](restrict-access-to-a-data-set-using-row-level-security.md)」を参照してください。SPF の設定の詳細については、「[データセットへのアクセスを制限するために列レベルのセキュリティを使用する](restrict-access-to-a-data-set-using-column-level-security.md)」を参照してください。
**注記**  
RLS/CLS は、子データセットにのみ設定できます。親データセットの RLS/CLS はサポートされていません。

1. 完了したら、[**Save & publish**] を選択して、変更を保存し、新しい子データセットを公開します。または、[**Save & publish**] を選択クして、新しい子データセットを公開し、データの視覚化を開始します。

# 他のユーザーがデータセットから新しいデータセットを作成しないようにする制限
<a name="restrict-create-dataset"></a>

Amazon Quick でデータセットを作成すると、他のユーザーが他のデータセットのソースとして使用しないようにできます。他のユーザーがそれを使用してデータセットを作成できるかどうかを指定できます。または、直接クエリデータセットや SPICE データセットなど、他のユーザーがデータセットから作成できる、または作成できないデータセットのタイプを指定することもできます。

次の手順を使用して、他のユーザーがデータセットから新しいデータセットを作成できないように制限する方法を学習します。

**他のユーザーがデータセットから新しいデータセットを作成しないように制限する**

1. クイックスタートページから、左側のペインで**データ**を選択します。

1. **Create** を選択し、新しいデータセットの作成を制限するデータセットを選択します。

1. そのデータセットに対して開いたページで、[**Edit dataset**] を選択します。

1. 開いたデータ準備ページで、右上の [**Manage**] を選択し、その後 [**Properties**] を選択します。

1. 開いた [**Dataset properties**] ペインで、以下のオプションから選択します。
   + このデータセットからすべてのタイプの新しいデータセットを作成できないように制限するには、[**Allow new datasets to be created from this one**] をオフにします。

     新しいデータセットの作成が許可されている場合、トグルは青色になります。新しいデータセットを作成できないときは、灰色になります。
   + 他のユーザーが直接クエリデータセットを作成できないように制限するには、**[Allow direct query]** (直接クエリを許可) をオフにします。
   + 他のユーザーによるデータセットの SPICE コピーの作成を制限するには、**[Allow SPICE copies]** (SPICE のコピーを許可) をオフにします。

     SPICE データセットの詳細については、[SPICE へのデータのインポート](spice.md) を参照してください。

1. ペインを閉じます。

# データセットの編集
<a name="edit-a-data-set"></a>

既存のデータセットを編集して、データ準備を行うことができます。Quick Sight データ準備機能の詳細については、「」を参照してください[Amazon Quick Sight でのデータの準備](preparing-data.md)。

編集用のデータセットは、**[Datasets]** (データセット) ページ、または分析ページから開けます。いずれかでデータセットを編集すると、そのデータセットを使用するすべての分析のデータセットが変更されます。

## データセットを編集するときに考慮すべきこと
<a name="change-a-data-set"></a>

2 つの状況で、データセットへの変更により問題が発生する可能性があります。1 つは、意図的にデータセットを編集する場合です。もう 1 つは、データソースが変更されてそれに基づく分析に影響を与える場合です。

**重要**  
本番稼働用環境で使用される分析は、正常に機能し続けるように保護する必要があります。

データの変更を扱うときは、以下のことをお勧めします。
+ データソースとデータセット、およびそれらに依存するビジュアルをドキュメント化します。ドキュメントには、スクリーンショット、使用しているフィールド、フィールドウェルの配置、フィルタ、ソート、計算、カラー、フォーマットなどが含まれている必要があります。ビジュアルを再作成するのに必要なすべてを記録します。また、データセット管理オプションでデータセットを使用する Quick Sight リソースを追跡することもできます。詳細については、「[データセットを使用するダッシュボードと分析の追跡](track-analytics-that-use-dataset.md)」を参照してください。
+ データセットを編集するときは、既存のビジュアルが壊れるような変更を加えないようにします。例えば、ビジュアルで使用されている列を削除するなどです。列を削除する必要がある場合は、その代わりに計算列を作成します。置き換え後の列は、元の列と同じ名前とデータ型にする必要があります。
+ ソースデータベースのデータソースまたはデータセットが変更された場合は、前に説明したように、ビジュアルをその変更に合わせます。または、ソースデータベースを変更に合わせることもできます。例えば、ソーステーブル (ドキュメント) のビューを作成するとします。この状況で、テーブルが変更された場合は、列 (属性) を含める/除外する、データ型の変更、null 値の埋め込みなどを行って、ビューを調整できます。また、別の状況で、データセットが低速の SQL クエリに基づく場合は、クエリの結果を保持するテーブルを作成できます。

  ソースのデータに十分に適応できない場合は、分析のドキュメントに基づいてビジュアルを再作成します。
+ データソースへのアクセスができなくなった場合は、そのソースに基づく分析は空になります。作成したビジュアルは引き続き存在しますが、表示するデータを受け取るまでは表示できません。管理者によりアクセス許可が変更されたときに、このようなことが発生する場合があります。
+ ビジュアルの基本となっているデータセットを削除すると、ドキュメントから再作成しなければならない可能性があります。ビジュアルを編集し、そのビジュアルで使用する新しいデータセットを選択します。古いファイルを新しいファイルに置き換える必要が常にある場合は、常に使用可能な場所にデータを保存します。例えば、.csv ファイルを Amazon S3 に保存して、ビジュアルに使用するための S3 データセットを作成します。S3 に保存されたファイルへのアクセスの詳細については、「[Amazon S3 ファイルを使用したデータセットの作成](create-a-data-set-s3.md)」を参照してください。

  または、データをテーブルへインポートし、ビジュアルをクエリに基づいて行います。このようにすると、含まれているデータが変更されても、データ構造は変わりません。
+ データ管理を一元化するには、他のユーザーが独自のデータセットを作成するために使用できる、汎用的な多目的データセットを作成することを検討してください。詳細については、「[Amazon Quick で既存のデータセットを使用してデータセットを作成する](create-a-dataset-existing-dataset.md)」を参照してください。

## データセットページでのデータセットの編集
<a name="edit-a-data-set-data"></a>

1. クイックスタートページから、左側の**データ**を選択します。

1. 開いた**データ**ページで、編集するデータセットを選択し、右上の**データセットの編集**を選択します。

   データ準備ページが開きます。データセットで行える編集の種類については、「[Amazon Quick Sight でのデータの準備](preparing-data.md)」を参照してください。

## 分析のデータセットの編集
<a name="edit-a-data-set-analysis"></a>

分析ページからデータセットを編集するには、次の手順に従います。

**分析ページからデータセットを編集するには**

1. 分析内で、**[Fields list]** (フィールドリスト) ペインの上部にある鉛筆形の編集アイコンを選択します。

1. **[Data sets in this analysis]** (この分析のデータセット) で、編集するデータセットの右側にある 3 つのドットを選択し、次に **[Edit]** (編集) を選択します。

   これで、データ準備ページの中に対象のデータセットが開きます。データセットに対して実行できる編集の種類については、「[Amazon Quick Sight でのデータの準備](preparing-data.md)」を参照してください。

# 以前の公開済みバージョンへのデータセットの復元
<a name="dataset-versioning"></a>

Amazon Quick Sight でデータセットに変更を保存して公開すると、データセットの新しいバージョンが作成されます。そのデータセットの以前に公開された全バージョンのリストは、いつでも確認できます。その履歴内にある特定のバージョンをプレビューしたり、必要に応じてデータセットを以前のバージョンに戻したりすることも可能です。

データセットのバージョニングには、以下の制限が適用されます。
+ バージョニングペインには、データセットの最新 1,000 バージョンのみが表示され、バージョニングに使用できます。
+ 公開済みバージョンが 1,000 を超えると、最も古いバージョンがバージョニングペインから自動的に削除され、それらのバージョンにデータセットを復元することはできなくなります。

以下の手順に従って、データセットを以前の公開済みバージョンに復元します。

**データセットを以前の公開済みバージョンに復元する**

1. クイックスタートページから、**データ**を選択します。

1. **データ**ページでデータセットを選択し、右上の**データセットの編集**を選択します。

   データセットの編集の詳細については、[データセットの編集](edit-a-data-set.md) を参照してください。

1. 開いたデータセットの準備ページで、右上の青いツールバーにある **[Manage]** (管理) アイコンをクリックし、**[Publishing history]** (バージョニング) を選択します。

   以前に公開されたバージョンのリストが右側に表示されます。

1. **[Publishing history]** (バージョニング) ペインで、目的のバージョンを見つけてから **[Revert]** (復元) をクリックします。

   復元する前にバージョンをプレビューするには、**[Preview]** (プレビュー) をクリックします。

   データセットが復元され、確認メッセージが表示されます。**[Publishing history]** (バージョニング) ペインも更新され、データセットのアクティブなバージョンが表示されます。

## バージョンの復元に関するトラブルシューティング
<a name="dataset-versioning-troubleshooting"></a>

以下のいずれかが原因で、データセットを特定のバージョンに復元できない場合があります。
+ データセットが 1 つ、または複数の削除されたデータソースを使用している。

  このエラーが発生した場合、データセットを以前のバージョンに復元することはできません。
+ 復元することで計算フィールドが無効になる。

  このエラーが発生した場合は、計算フィールドを編集または削除してから、データセットを保存することができます。そうすることで、データセットの新しいバージョンが作成されます。
+ データソースから 1 つ、または複数の列が欠落している。

  このエラーが発生すると、Quick Sight はプレビューでデータソースの最新のスキーマを表示し、バージョン間の違いを照合します。スキーマのプレビューに表示される計算フィールド、フィールド名、フィールドタイプ、およびフィルターの変更は、復元したいバージョンからのものです。この調整されたスキーマを、データセットの新しいバージョンとして保存できます。または、バージョニングペインの最上部にある (最新) バージョンで **[Preview]** (プレビュー) をクリックして、アクティブ (最新) バージョンに戻ることも可能です。

# データセットの複製
<a name="duplicate-a-data-set"></a>

既存のデータセットを複製して、そのコピーを新しい名前で保存することができます。新しいデータセットは完全に別のコピーです。

**[Duplicate dataset]** (データセットの複製) オプションは、そのデータセットの所有者であり、データソースへのアクセス許可を持っている場合に使用できます。

**データセットを複製するには**

1. クイックスタートページから、左側の**データ**を選択します。

1. 複製するデータセットを選択します。

1. 開いたデータセットの詳細ページで、**データセットの編集**のドロップダウンを選択し、**複製**を選択します。

1. [Duplicate dataset] (データセットの複製) ページが開くので、複製されたデータセットに名前を付け、その後で **[Duplicate]** (複製) を選択します。

   複製されたデータセットの詳細ページが開きます。このページからは、データセットの編集や、更新スケジュールの設定、その他を行うことができます。

# データセットの共有
<a name="sharing-data-sets"></a>

他の Quick Sight ユーザーおよびグループにデータセットへのアクセスを許可するには、データセットを共有します。これにより、他のユーザーやグループはデータセットから分析を作成できます。共同所有者としての他のユーザーやグループも、データセットを更新、編集、削除、または再共有できます。

## データセットの共有
<a name="share-a-data-set"></a>

データセットの所有者としてのアクセス許可があるユーザーは、次の手順により、そのアクセス許可を共有できます。

**データセットを共有するには**

1. クイックスタートページから、左側の**データ**を選択します。

1. **データ**ページで、共有するデータセットを選択します。

1. データセットの詳細ページが開くので、**[Permissions]** (許可) タブを選択し、次に **[Add users & groups]** (ユーザーとグループの追加) を選択します。

1. このデータセットを共有するユーザーまたはグループを入力し、その後で **[Add]** (追加) を選択します。招待できるのは、同じクイックアカウントに属するユーザーのみです。

   このステップを繰り返し、データセットを共有するすべてのユーザーの情報を入力します。

1. **[Permission]** (許可) 列で、ユーザーまたはグループごとにロールを選択し、データセットに対するアクセス許可を付与します。

   **[Viewer]** (閲覧者) を選択し、そのデータセットから分析や他のデータセットを作成することを、ユーザーに許可します。**[Owner]** (所有者) を選択すると、さらに、そのユーザーはデータセットの更新、編集、削除、再共有が行えます。

   ユーザーに、データセットへのリンクを含む E メールが届きます。グループの場合は招待メールを受信しません。

# データセットを共有しているユーザーの許可の表示と編集
<a name="view-users-data-set"></a>

データセットへの所有者のアクセス許可があるユーザーは、次の手順で、そのデータセットへのユーザーアクセスの表示、編集、変更が行えます。

**所有者としてのアクセス許可がある場合にデータセットへのユーザーアクセスを表示、編集、変更するには**

1. クイックスタートページから、左側の**データ**を選択します。

1. **データ**ページで、共有するデータセットを選択します。

1. [Dataset details] (データセットの詳細) ページが開くので、**[Permissions]** (許可) タブを選択します。

   そのデータセットへのアクセス権を持つ、すべてのユーザーおよびグループの一覧が表示されます。

1. (オプション) ユーザーまたはグループの許可ロールを変更するには、ユーザーまたはグループの **[Permissions]** (許可) 列で、ドロップダウンメニューを展開します。次に、**[Viewer]** (閲覧者) または **[Owner]** (所有者) のいずれかを選択します。

# データセットへのアクセス権の取り消し
<a name="revoke-access-to-a-data-set"></a>

データセットへの所有者のアクセス許可があるユーザーは、次の手順で、そのデータセットへのユーザーアクセスを取り消すことができます。

**所有者としてのアクセス許可がある場合に、データセットへのユーザーアクセスを取り消すには**

1. クイックスタートページから、左側の**データ**を選択します。

1. **データ**ページで、共有するデータセットを選択します。

1. [Dataset details] (データセットの詳細) ページが開くので、**[Permissions]** (許可) タブを選択します。

   そのデータセットへのアクセス権を持つ、すべてのユーザーおよびグループの一覧が表示されます。

1. ユーザーまたはグループの **[Actions]** (アクション) 列で、**[Revoke access]** (アクセス権の取り消し) を選択します。

# データセットを使用するダッシュボードと分析の追跡
<a name="track-analytics-that-use-dataset"></a>

Quick Sight でデータセットを作成すると、そのデータセットを使用するダッシュボードと分析を追跡できます。この方法は、データセットを変更したときに影響を受けるリソースを確認する場合や、データセットを削除する場合に便利です。

データセットを使用するダッシュボードと分析を確認するには、次の手順を実行します。

**データセットを使用するリソースを追跡するには**

1. クイックスタートページから、左側のペインで**データ**を選択します。

1. **データ**ページで、リソースを追跡するデータセットを選択します。

1. そのデータセットに対して開いたページで、[**Edit dataset**] を選択します。

1. 開いたデータ準備ページで、右上の [**Manage**] を選択し、その後 [**Usage**] を選択します。

1. データセットを使用するダッシュボードと解析が、開いたペインに一覧表示されます。

# Amazon Quick でのデータセットパラメータの使用
<a name="dataset-parameters"></a>

Amazon Quick では、作成者は直接クエリでデータセットパラメータを使用してデータセットを動的にカスタマイズし、再利用可能なロジックをデータセットに適用できます。データセットパラメータは、データセットレベルで作成されるパラメータです。これは、コントロール、計算フィールド、フィルター、アクション、URL、タイトル、説明を通じて分析パラメータに使用されます。分析パラメータの詳細については、「[Amazon Quick のパラメータ](parameters-in-quicksight.md)」を参照してください。以下に、データセットパラメータを使用して実行できる 3 つのアクションを示します。
+  **ダイレクトクエリのカスタム SQL** – データセットの所有者は、データセットパラメータをダイレクトクエリデータセットのカスタム SQL に挿入できます。これらのパラメータをクイック分析のフィルターコントロールに適用すると、ユーザーはカスタムデータをより迅速かつ効率的にフィルタリングできます。
+ **反復可能な変数** – データセットページ内の複数の場所に表示される静的な値は、カスタムデータセットパラメータを使用して 1 回のアクションで変更できます。
+ **計算フィールドをデータセットに移動する** – クイック作成者は、分析内のパラメータを使用して計算フィールドをコピーし、データセットレベルに移行できます。これにより、分析レベルで計算フィールドが誤って変更されないように保護され、また計算フィールドが複数の分析間で共有されます。

状況によっては、データセットパラメータにより、複雑なカスタム SQL を必要とするダイレクトクエリデータセットのためのフィルターコントロールパフォーマンスが改善され、データセットレベルでのビジネスロジックが簡素化されます。

**Topics**
+ [データセットパラメータの制限](#dataset-parameters-limitations)
+ [Amazon Quick でのデータセットパラメータの作成](dataset-parameters-SQL.md)
+ [データセットパラメータをカスタム SQL に挿入する](dataset-parameters-insert-parameter.md)
+ [データセットパラメータを計算フィールドに追加する](dataset-parameters-calculated-fields.md)
+ [データセットパラメータをフィルターに追加する](dataset-parameters-dataset-filters.md)
+ [高速分析でのデータセットパラメータの使用](dataset-parameters-analysis.md)
+ [データセットパラメータの高度なユースケース](dataset-parameters-advanced-options.md)

## データセットパラメータの制限
<a name="dataset-parameters-limitations"></a>

このセクションでは、Amazon Quick でデータセットパラメータを使用する際に発生する可能性のある既知の制限について説明します。
+ ダッシュボードの閲覧者が E メールによるレポートをスケジュールする場合、選択したコントロールは、E メール添付のレポートに含まれるデータセットパラメータに反映されません。代わりに、パラメータのデフォルト値が使用されます。
+ データセットパラメータは、SPICE に保存されているデータセットのカスタムSQL に挿入できません。
+ 動的デフォルトは、データセットを使用している分析の分析ページでのみ設定できます。データセットレベルで動的なデフォルトを設定することはできません。
+ **[すべて選択]** オプションは、データセットパラメータにマッピングされている分析パラメータの複数値コントロールではサポートされていません。
+ カスケードコントロールは、データセットパラメータではサポートされていません。
+ データセットパラメータは、データセットがダイレクトクエリを使用している場合にのみ、データセットフィルターで使用できます。
+ カスタム SQL クエリでは、使用可能なデータセットパラメータは 128 個のみです。

# Amazon Quick でのデータセットパラメータの作成
<a name="dataset-parameters-SQL"></a>

データセットパラメータの使用を開始するには、次の手順を実行します。

**新しいデータセットパラメータを作成するには**

1. クイックスタートページから、左側の**データ**を選択し、変更するデータセットの横にある省略記号 (3 つのドット) を選択し、**編集**を選択します。

1. 表示される **[データセット]** ページで、左側の **[パラメータ]** を選択し、(\$1) アイコンを選択して新しいデータセットパラメータを作成します。

1. 表示される **[新しいパラメータを作成]** ポップアップで、**[名前]** ボックスにパラメータ名を入力します。

1. **[データ型]** ドロップダウンで、必要なパラメータのデータ型を選択します。サポートされているデータ型は、`String`、`Integer`、`Number`、および `Datetime` です。このオプションは、パラメータの作成後に変更することはできません。

1. **[デフォルト値]** で、パラメータに設定するデフォルト値を入力します。
**注記**  
データセットパラメータを分析パラメータにマッピングする場合、別のデフォルト値を選択できます。この場合、ここで設定したデフォルト値は新しいデフォルト値によってオーバーライドされます。

1. **[値]** で、パラメータに設定する値のタイプを選択します。**[単一の値]** パラメータは、単一選択ドロップダウン、テキストフィールド、およびリストコントロールをサポートします。**[複数の値]** パラメータは、複数選択のドロップダウンコントロールをサポートします。このオプションは、パラメータの作成後に変更することはできません。

1. 新しいパラメータの設定が完了したら、**[作成]** を選択してパラメータを作成します。

# データセットパラメータをカスタム SQL に挿入する
<a name="dataset-parameters-insert-parameter"></a>

SQL ステートメントの `<<$parameter_name>>` を使用してデータセットパラメータを参照することにより、[ダイレクトクエリ] モードでデータセットのカスタム SQL にそのデータセットパラメータを挿入できます。ランタイムの際、ダッシュボードユーザーはデータセットパラメータに関連付けられたフィルターコントロール値を入力できます。その値が SQL クエリに反映された後、ダッシュボードのビジュアルで結果を確認できます。パラメータを使用して、顧客が `where` 句に入力した内容に基づく基本フィルターを作成できます。もしくは、`case when` または `if else` 句を追加して、パラメータの入力に基づき、SQL クエリのロジックを動的に変更することもできます。

例えば、エンドユーザーのリージョン名に基づいてデータをフィルタリングする `WHERE` 句をカスタム SQL に追加するとします。この場合、`RegionName` と呼ばれる単一の値のパラメータを作成します:

```
SELECT *
FROM transactions
WHERE region = <<$RegionName>>
```

ユーザーがパラメータに複数値を指定するようにすることもできます。

```
SELECT *
FROM transactions
WHERE region in (<<$RegionNames>>)
```

次のより複雑な例では、データセットの作成者は、ダッシュボードフィルターコントロールで選択できるユーザーの姓名に基づいて、2 つのデータセットパラメータを 2 回参照します。

```
SELECT Region, Country, OrderDate, Sales
FROM transactions
WHERE region=
(Case
WHEN <<$UserFIRSTNAME>> In 
    (select firstname from user where region='region1') 
    and <<$UserLASTNAME>> In 
    (select lastname from user where region='region1') 
    THEN 'region1'
WHEN <<$UserFIRSTNAME>> In 
    (select firstname from user where region='region2') 
    and <<$UserLASTNAME>> In 
    (select lastname from user where region='region2') 
    THEN 'region2'
ELSE 'region3'
END)
```

`SELECT` 句でパラメータを使用して、ユーザー入力からデータセットで新しい列を作成することもできます。

```
SELECT Region, Country, date, 
    (case 
    WHEN <<$RegionName>>='EU'
    THEN sum(sales) * 0.93   --convert US dollar to euro
    WHEN <<$RegionName>>='CAN'
    THEN sum(sales) * 0.78   --convert US dollar to Canadian Dollar
    ELSE sum(sales) -- US dollar
    END
    ) as "Sales"
FROM transactions
WHERE region = <<$RegionName>>
```

データセットパラメータを追加する前にカスタム SQL クエリを作成するか、既存のクエリを編集するには、「[データをカスタマイズするための SQL の使用](adding-a-SQL-query.md)」を参照してください。

データセットパラメータを使用してカスタム SQL を適用する場合、`<<$parameter_name>>` はプレースホルダー値として使用されます。ユーザーがコントロールからパラメータ値のいずれかを選択すると、Quick はプレースホルダーをユーザーがダッシュボードで選択した値に置き換えます。

次の例では、ユーザーは、データを状態別にフィルタリングする新しいカスタム SQL クエリを入力します。

```
select * from all_flights
where origin_state_abr = <<$State>>
```

パラメータのデフォルト値が SQL クエリに適用され、結果が **[プレビュー]** ペインに表示されます。

# データセットパラメータを計算フィールドに追加する
<a name="dataset-parameters-calculated-fields"></a>

形式 `${parameter_name}` を使用して、データセットパラメータを計算フィールド式に追加することもできます。

計算を作成するときは、**[パラメータ]** リストの下にあるパラメータのリストから既存のパラメータを選択できます。複数値のパラメータを含む計算フィールドを作成することはできません。

計算フィールドの追加の詳細については、「[Amazon Quick でパラメータを使用して計算フィールドを使用する](parameters-calculated-fields.md)」を参照してください。

# データセットパラメータをフィルターに追加する
<a name="dataset-parameters-dataset-filters"></a>

[ダイレクトクエリ] モードのデータセットの場合、データセットの作成者は、カスタム SQL なしで、フィルターでデータセットパラメータを使用できます。データセットが SPICE にある場合、データセットパラメータをフィルターに追加することはできません。

**データセットパラメータをフィルターに追加するには**

1. フィルターを作成するデータセットのデータセットページを開きます。左側の **[フィルター]** を選択し、**[フィルターを追加]** を選択します。

1. フィルターに付ける名前を入力し、ドロップダウンでフィルタリングするフィールドを選択します。

1. 新しいフィルターを作成した後、**[フィルター]** ペインでフィルターに移動し、フィルターの横にある省略記号 (三点) を選択して、**[編集]** を選択します。

1. **[Filter type]** (フィルタータイプ) で、**[Custom filter]** (カスタムフィルター) を選択します。

1. **[フィルター条件]** で、希望する条件を選択します。

1. **[パラメータを使用]** ボックスを選択し、フィルターで使用するデータセットパラメータを選択します。

1. 変更が完了したら、**[適用]** を選択します。

# 高速分析でのデータセットパラメータの使用
<a name="dataset-parameters-analysis"></a>

データセットパラメータを作成したら、そのデータセットを分析に追加した後、そのデータセットパラメータを新規または既存の分析パラメータにマッピングします。データセットパラメータを分析パラメータにマッピングした後、それらをフィルター、コントロール、その他の分析パラメータ機能とともに使用できます。

データセットパラメータは、パラメータが属するデータセットを使用する分析の **[パラメータ]** ペインで管理できます。**[パラメータ]** ペインの **[データセットパラメータ]** セクションでは、マッピングされていないデータセットパラメータのみを表示するように選択できます (デフォルト)。もしくは、マッピングされている、されていないにかかわらず、すべてのデータセットパラメータを表示するには、**[表示]** ドロップダウンから **[すべて]** を選択します。

## 新しいクイック分析でのデータセットパラメータのマッピング
<a name="dataset-parameters-map-to-analysis"></a>

パラメータを含むデータセットから新しい分析を作成する場合、データセットパラメータを使用する前に、それらのパラメータを分析にマッピングする必要があります。これは、パラメータを含むデータセットを分析に追加する場合にも当てはまります。分析のマッピングされていないすべてのパラメータは、分析の **[パラメータ]** ペインに表示できます。または、分析を作成する際、またはデータセットを追加する際に、ページの右上に表示される通知メッセージで **[表示]** を選択することもできます。

**データセットパラメータを分析パラメータにマッピングするには**

1. [クイックコンソール](https://quicksight.aws.amazon.com/)を開きます。

1. 変更する分析を選択します。

1. **[パラメータ]** アイコンを選択して、**[パラメータ]** ペインを開きます。

1. マッピングするデータセットパラメータの横にある省略記号 (三点) を選択し、**[パラメータをマッピング]** を選択して、データセットパラメータをマッピングする分析パラメータを選択します。

   分析に分析パラメータがない場合は、**[パラメータをマッピング]** と **[新規作成]** を選択して、作成時にデータセットパラメータに自動的にマッピングされる分析パラメータを作成できます。

   1. (オプション) 表示される **[新しいパラメータを作成]** ポップアップで、**[名前]** に新しい分析パラメータの名前を入力します。

   1. (オプション) **[静的デフォルト値]** で、パラメータに設定する静的デフォルト値を選択します。

   1. (オプション) **[動的デフォルトを設定]** を選択して、新しいパラメータの動的デフォルトを設定します。

   1. **[マッピングされたデータセットパラメータ]** テーブルには、新しい分析パラメータにマッピングしているデータセットパラメータが表示されます。この分析パラメータに他のデータセットパラメータを追加するには、**[データセットパラメータの追加]** ドロップダウンを選択し、マッピングするパラメータを選択します。データセットパラメータのマッピングを解除するには、削除するデータセットパラメータの横にある **[削除]** ボタンを選択します。

   分析パラメータの作成の詳細については、「[Amazon Quick でのパラメータの設定](parameters-set-up.md)」を参照してください。

データセットパラメータを分析パラメータにマッピングすると、分析パラメータは、分析で使用される場所にかかわらず、データセットパラメータを表します。

**[パラメータを編集]** ウィンドウで、データセットパラメータを分析パラメータにマッピングしたり、マッピング解除したりすることもできます。**[パラメータを編集]** ウィンドウを開くには、**[パラメータ]** ペインに移動し、変更する分析パラメータの横にある省略記号 (三点) を選択し、**[パラメータを編集]** を選択します。この分析パラメータに他のデータセットパラメータを追加するには、**[データセットパラメータの追加]** ドロップダウンを選択し、マッピングするパラメータを選択します。データセットパラメータのマッピングを解除するには、削除するデータセットパラメータの横にある **[削除]** ボタンを選択します。**[すべて削除]** を選択して、すべてのマッピングされたデータセットパラメータを削除することもできます。変更が完了したら、**[更新]** を選択します。

分析パラメータを削除すると、すべてのデータセットパラメータのマッピングが分析から解除され、**[パラメータ]** ペインの **[未マッピング]** セクションに表示されます。データセットパラメータを一度に 1 つの分析パラメータにのみマッピングできます。データセットパラメータを別の分析パラメータにマッピングするには、データセットパラメータのマッピングを解除してから、それを新しい分析パラメータにマッピングします。

## マッピングされた分析パラメータにフィルターコントロールを追加する
<a name="dataset-parameters-analysis-filter-control"></a>

Quick でデータセットパラメータを分析パラメータにマッピングした後、フィルター、アクション、計算フィールド、タイトル、説明、URLsのフィルターコントロールを作成できます。

**マッピングされたパラメータにコントロールを追加するには**

1. 分析ページの **[パラメータ]** ペインで、必要なマッピングされた分析パラメータの横にある省略記号 (三点) を選択し、**[コントロールを追加]** を選択します。

1. 表示される **[コントロールを追加]** ウィンドウで、希望の **[名前]** を入力し、コントロールに付ける **[スタイル]** を選択します。単一の値のコントロールの場合は、`Dropdown`、`List`、および `Text field` から選択します。複数値コントロールの場合は、`Dropdown` を選択します。

1. **[追加]** を選択してコントロールを作成します。

# データセットパラメータの高度なユースケース
<a name="dataset-parameters-advanced-options"></a>

このセクションは、より高度なオプションと、データセットパラメータとドロップダウンコントロールを使用するユースケースについて説明します。以下のチュートリアルを参照しながら、データセットパラメータを使用して動的なドロップダウンの値を作成します。

## データセットパラメータによる複数値コントロールの使用
<a name="dataset-parameters-dropdown"></a>

データセットのカスタム SQL に挿入されるデータセットパラメータを使用する場合、通常、データセットパラメータは特定の列の値によってデータをフィルタリングします。ドロップダウンコントロールを作成し、パラメータを値として割り当てた場合、ドロップダウンには、パラメータがフィルタリングした値のみが表示されます。以下は、データセットパラメータにマッピングされ、フィルタリングされていないすべての値を表示するコントロールを作成する手順です。

**割り当てられたすべての値をドロップダウンコントロールで表示させるには**

1. 元のデータセットのすべての一意の値を含む新しい単一列のデータセットを SPICE またはダイレクトクエリで作成します。例えば、元のデータセットが次のカスタム SQL を使用しているとします。

   ```
   select * from all_flights
           where origin_state_abr = <<$State>>
   ```

   すべての一意の元の状態を含む単一列のテーブルを作成するには、次のカスタム SQL を新しいデータセットに適用します。

   ```
   SELECT distinct origin_state_abr FROM all_flights
           order by origin_state_abr asc
   ```

   SQL 式は、すべての一意の状態をアルファベット順に返します。新しいデータセットには、データセットパラメータは含まれていません。

1. 新しいデータセットの **[名前]** を入力し、データセットを保存して公開します。この例では、新しいデータセットの名前は `State Codes` です。

1. 元のデータセットを含む分析を開き、新しいデータセットを分析に追加します。既存の分析にデータセットを追加する方法については、「[分析へのデータセットの追加](adding-a-data-set-to-an-analysis.md)」を参照してください。

1. **[コントロール]** ペインに移動し、編集するドロップダウンコントロールを見つけます。コントロールの横にある省略記号 (三点) を選択し、**[編集]** を選択します。

1. 左側に表示される **[フォーマットコントロール]** で、**[値]** セクションの **[データセットフィールドにリンク]** を選択します。

1. 表示される **[データセット]** ドロップダウンで、作成した新しいデータセットを選択します。この例では、`State Codes` データセットが選択されています。

1. 表示される **[フィールド]** ドロップダウンで、適切なフィールドを選択します。この例では、`origin_state_abr` フィールドが選択されています。

新しいデータセットへのコントロールのリンクを完了すると、すべての一意の値がコントロールのドロップダウンに表示されます。これには、データセットパラメータによって除外される値が含まれます。

## [すべてを選択] オプションによるコントロールの使用
<a name="dataset-parameters-controls-select-all"></a>

デフォルトでは、1 つ以上のデータセットパラメータが分析パラメータにマッピングされ、コントロールに追加される場合、`Select all` オプションは使用できません。以下は、前のセクションと同じシナリオ例を使用した回避策の手順です。

**注記**  
このチュートリアルは、ダイレクトクエリでロードできる小規模のデータセットが対象です。大規模なデータセットがあり、`Select All` オプションを使用したい場合は、データセットを SPICE にロードすることをお勧めします。ただし、`Select All` オプションをデータセットパラメータとともに使用する場合は、このチュートリアルでその方法について説明します。

まず、`States` という複数値パラメータを持つカスタム SQL を含むダイレクトクエリデータセットがあるとします。

```
select * from all_flights
where origin_state_abr in (<<$States>>)
```

**データセットパラメータを使用するコントロールで [すべて選択] オプションを使用するには**

1. 分析の **[パラメータ]** ペインで、使用するデータセットパラメータを見つけ、パラメータの横にある省略記号 (三点) から **[編集]** を選択します。

1. 表示される **[パラメータを編集]** ウィンドウで、**[複数の静的デフォルト値]** セクションに新しいデフォルト値を入力します。この例では、デフォルト値は ` All States` です。この例では、デフォルト値がコントロールの最初の項目として表示されるように、先頭にスペース文字が使用されていることに注意してください。

1. **[更新]** を選択してパラメータを更新します。

1. 分析別分析で使用しているデータセットパラメータを含むデータセットに移動します。データセットのカスタム SQL を編集して、新しい静的な複数のデフォルト値のデフォルトユースケースを含めます。` All States` の例を使用すると、SQL 式は次のようになります。

   ```
   select * from public.all_flights
   where
       ' All States' in (<<$States>>) or
       origin_state_abr in (<<$States>>)
   ```

   ユーザーがコントロールで ` All States` を選択した場合、新しい SQL 式は一意のレコードすべてを返します。ユーザーがコントロールから別の値を選択した場合、クエリはデータセットパラメータによってフィルタリングされた値を返します。

### [すべて選択] オプションと複数値オプションによるコントロールの使用
<a name="dataset-parameters-controls-multi-select-all"></a>

前の `Select all` の手順と前述の複数値コントロールの方法を組み合わせて、ユーザーが選択できる複数値に加え、`Select all` の値を含むドロップダウンコントロールを作成できます。このチュートリアルは、前の手順に従って、データセットパラメータを分析パラメータにマッピングする方法を理解し、分析でコントロールを作成できることを前提としています。マッピング分析パラメータの詳細については、「[新しいクイック分析でのデータセットパラメータのマッピング](dataset-parameters-analysis.md#dataset-parameters-map-to-analysis)」を参照してください。データセットパラメータを使用する分析でのコントロールの作成の詳細については、「[マッピングされた分析パラメータにフィルターコントロールを追加する](dataset-parameters-analysis.md#dataset-parameters-analysis-filter-control)」を参照してください。

**[すべて選択] オプションとマッピングされたデータセットパラメータを使用して複数値をコントロールに追加するには**

1. `Select all` カスタム SQL 式を含む元のデータセットと、元のデータセットに存在するフィルタリングされた列のすべての可能な値を含む 2 番目のデータセットを含む分析を開きます。

1. 前に作成したセカンダリデータセットに移動して、フィルタリングされた列のすべての値を返します。以前に設定した `Select all` オプションをクエリに追加するカスタム SQL 式を追加します。次の例では、データセットの戻り値のリストの先頭に ` All States` レコードを追加します。

   ```
   (Select ' All States' as origin_state_abr)
       Union All
       (SELECT distinct origin_state_abr FROM all_flights
       order by origin_state_abr asc)
   ```

1. データセットが属する分析に戻り、使用しているデータセットパラメータを、前述の手順のステップ 3 で作成した分析パラメータにマッピングします。分析パラメータとデータセットパラメータには同じ名前を付けることができます。この例では、分析パラメータは `States` と呼ばれます。

1. 新しいフィルターコントロールを作成するか、既存のフィルターコントロールを編集し、**[すべて選択を非表示]** を選択して、複数値コントロールに表示される無効な **[すべて選択]** オプションを非表示にします。

コントロールを作成すると、ユーザーは同じコントロールを使用して、データセット内のフィルタリングされた列のすべてまたは複数値を選択できます。

# Amazon Quick での行レベルのセキュリティの使用
<a name="row-level-security"></a>


|  | 
| --- |
|  適用対象: Enterprise Edition  | 

Amazon Quick の Enterprise Edition では、データセットに対する行レベルのセキュリティ (RLS) を設定することで、データセットへのアクセスを制限できます。これは、データセットを共有する前または後に行います。RLS が設定されたデータセットをデータセット所有者と共有する場合、所有者は引き続きすべてのデータを表示できます。しかし、それを閲覧者と共有する場合、閲覧者は許可データセットのルールによって制限されたデータしか表示できません。

また、Quick の登録されていないユーザー用に Amazon Quick ダッシュボードをアプリケーションに埋め込む場合、行レベルのセキュリティ (RLS) を使用して、タグでデータをフィルタリング/制限できます。タグは、アプリケーション内のセッションを識別するユーザー指定の文字列です。タグを使用して、データセットの RLS コントロールを実装できます。データセットで RLS ベースの制限を設定することで、Quick はユーザー ID/セッションに関連付けられたセッションタグに基づいてデータをフィルタリングします。

データセットへのアクセスは、ユーザー名ベースもしくはグループベースのルール、タグベースのルール、またはそれらの両方を使用して制限することができます。

Quick でプロビジョニング (登録) されたユーザーまたはグループのデータを保護する場合は、ユーザーベースのルールを選択します。これを実行するには、データにアクセスする各ユーザーまたはグループに対して、列ごとに設定されたルールが含まれる許可データセットを選択します。データにアクセスできるのは、これらのルールで特定されたユーザーまたはグループのみです。

埋め込みダッシュボードを使用していて、Quick でプロビジョニングされていないユーザー (未登録ユーザー) のデータを保護する場合にのみ、タグベースのルールを選択します。これを実行するには、列にタグを定義してデータをセキュア化します。ダッシュボードを埋め込むときは、タグに対する値を渡す必要があります。

**Topics**
+ [データセットへのアクセスを制限するためのユーザーベースのルールでの行レベルのセキュリティの使用](restrict-access-to-a-data-set-using-row-level-security.md)
+ [匿名ユーザー用のダッシュボードの埋め込み時におけるデータセットへのアクセスを制限するためのタグベースのルールでの行レベルのセキュリティの使用](quicksight-dev-rls-tags.md)

# データセットへのアクセスを制限するためのユーザーベースのルールでの行レベルのセキュリティの使用
<a name="restrict-access-to-a-data-set-using-row-level-security"></a>


|  | 
| --- |
|  適用対象: Enterprise Edition  | 

Amazon Quick の Enterprise Edition では、データセットに対する行レベルのセキュリティ (RLS) を設定することで、データセットへのアクセスを制限できます。これは、データセットを共有する前または後に行います。RLS が設定されたデータセットをデータセット所有者と共有する場合、所有者は引き続きすべてのデータを表示できます。しかし、それを閲覧者と共有する場合、閲覧者は許可データセットのルールによって制限されたデータしか表示できません。行レベルのセキュリティを追加することで、アクセスをさらに管理できます。

**注記**  
SPICE データセットを行レベルのセキュリティに適用する場合、データセット内の各フィールドに最大 2,047 文字の Unicode 文字を含めることができます。このクォータを超えるフィールドは、取り込み中に切り捨てられます。SPICE データクォータの詳細については、「[インポートされたデータに対する SPICE クォータ](data-source-limits.md#spice-limits)」を参照してください。

これを行うには、ユーザーまたはグループを識別するための 1 つの列を持つクエリまたはファイルを作成します。`UserName` と を使用するか`GroupName`、または `UserARN`と を使用できます`GroupARN`。そのユーザーまたはグループに*ルールを追加する*と考えることもできます。次に、アクセスを付与または制限するフィールドごとに、クエリまたはファイルに 1 列追加します。追加したユーザーまたはグループ名ごとに、各フィールドの値を追加します。NULL (値なし) を、すべての値を意味するものとして使用できます。データセットのルールの例は、「[行レベルのセキュリティに対するデータセットルールの作成](#create-data-set-rules-for-row-level-security)」を参照してください。

データセットのルールを適用するには、ルールをアクセス許可データセットとしてデータセットに追加します。次のポイントに注意が必要です。
+ アクセス許可のデータセットに重複する値を含めることはできません。ルールの適用方法を評価する際、重複は無視されます。
+ 指定された各ユーザーまたはグループには、データセットルールのフィールド値に*一致する*行のみが表示されます。
+ ユーザーまたはグループにルールを追加し、他のすべての列を値なし (NULL) のままにすると、すべてのデータへのアクセスが付与されます。
+ ユーザーまたはグループにルールを追加しない場合、そのユーザーまたはグループにデータが一切表示されません。
+ ユーザーごとに適用されるルールレコードの完全なセットは、999 を超えないようにしてください。この制限は、ユーザーネームに直接割り当てられるルールと、グループ名を使用してユーザーに割り当てられるルールの総数に適用されます。
+ フィールドにカンマ (,) が含まれている場合、Amazon Quick はカンマで区切られた各単語をフィルター内の個々の値として扱います。例えば、`('AWS', 'INC')` の中で、`AWS,INC` は2つの文字列、`AWS` および `INC` とみなされます。`AWS,INC` を使用してフィルタリングするには、アクセス許可データセット内の文字列を二重引用符で囲みます。

  制限されたデータセットが SPICE データセットである場合は、ユーザーあたりの適用されたフィルター値の数を、制限されたフィールドごとに 192,000 個以下にする必要があります。これは、ユーザー名に直接割り当てられるフィルター値と、グループ名を使用してユーザーに割り当てられるフィルター値の総数に適用されます。

  制限されたデータセットが直接クエリデータセットである場合、ユーザーごとに適用されるフィルター値の数はデータソースに応じて異なります。

  フィルター値の制限を超えると、視覚化レンダリングが失敗する場合があります。フィルターリストを短縮できるように、制限されたデータセットに列を追加して、元の制限された列に基づいて行を複数グループに分割することをお勧めします。

Amazon Quick は、スペースをリテラル値として扱います。したがって、制限しているフィールドにスペースがある場合、その行にはデータセットルールが適用されます。Amazon Quick はNULLs と空白 (空の文字列「」) の両方を「値なし」として扱います。NULL は空のフィールドの値です。

データセットがどのデータソースから来ているかに応じて、直接クエリを設定し、アクセス許可のテーブルへアクセスすることができます。用語内にスペースが含まれている場合、引用符で区切る必要はありません。直接クエリを使用する場合は、元のデータソースでクエリを簡単に変更できます。

もしくは、テキストファイルまたはスプレッドシートからデータセットのルールをアップロードすることもできます。カンマ区切り値 (CSV) ファイルを使用している場合は、指定された行にスペースを含めないでください。スペースが含まれている用語は、引用符で区切る必要があります。ファイルベースのデータセットのルールを使用する場合は、データセットのアクセス許可設定にある既存のルールを上書きすることで、変更を適用する必要があります。

制限されているデータセットは、**データ**画面で **RESTRICTED** という単語でマークされます。

RLS ルールがアクティブな親データセットから作成された子データセットでは、親データセットの RLS ルールと同じ RLS ルールが保持されます。子データセットにはさらに RLS ルールを追加できますが、データセットが親データセットから継承する RLS ルールを削除することはできません。

RLS ルールがアクティブな親データセットから作成された子データセットは、直接クエリでのみ作成できます。親データセットの RLS ルールを継承する子データセットは SPICE ではサポートされていません。

行レベルのセキュリティが機能するのは、テキストデータ (文字列、char、varchar など) が含まれるフィールドのみです。現状、日付または数値フィールドでは機能しません。行レベルのセキュリティ (RLS) を使用するデータセットでは、異常検出はサポートされていません。

## 行レベルのセキュリティに対するデータセットルールの作成
<a name="create-data-set-rules-for-row-level-security"></a>

データセットのルールとして使用する、アクセス許可のファイルまたはクエリを作成するには、次の手順に従います。

**データセットのルールとして使用するアクセス許可ファイルまたはクエリを作成するには**

1. 行レベルのセキュリティ (RLS) のデータセットルール (アクセス許可) を含むファイルまたはクエリを作成します。

   フィールドの順序は関係ありません。ただし、すべてのフィールドでは、大文字と小文字が区別されます。これらがフィールド名と値に完全に一致していることを確認してください。

   構成は次のいずれかのようになります。ユーザーまたはグループを特定するフィールドが少なくとも 1 つあることを確認してください。両方を含めることができますが、必須は 1 つのみで、一度に 1 つのみ使用されます。ユーザーまたはグループに使用するフィールドには、任意の名前を付けることができます。
**注記**  
グループを指定する場合は、Amazon Quick グループまたは Microsoft AD グループのみを使用します。

   次の例は、グループを含むテーブルを示しています。    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/restrict-access-to-a-data-set-using-row-level-security.html)

   次の例は、ユーザー名を含むテーブルを示しています。    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/restrict-access-to-a-data-set-using-row-level-security.html)

   以下は、ユーザーおよびグループの Amazon リソースネーム (ARN) が含まれるテーブルの例です。    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/restrict-access-to-a-data-set-using-row-level-security.html)

   .csv ファイルを使用する場合は、構造が以下のいずれかのようになっている必要があります。

   ```
   UserName,SalesRegion,Segment
   AlejandroRosalez,EMEA,"Enterprise,SMB,Startup"
   MarthaRivera,US,Enterprise
   NikhilJayashankars,US,SMB
   PauloSantos,US,Startup
   SaanviSarkar,APAC,"SMB,Startup"
   sales-tps@example.com,"",""
   ZhangWei,APAC-Sales,"Enterprise,Startup"
   ```

   ```
   GroupName,SalesRegion,Segment
   EMEA-Sales,EMEA,"Enterprise,SMB,Startup"
   US-Sales,US,Enterprise
   US-Sales,US,SMB
   US-Sales,US,Startup
   APAC-Sales,APAC,"SMB,Startup"
   Corporate-Reporting,"",""
   APAC-Sales,APAC,"Enterprise,Startup"
   ```

   ```
   UserARN,GroupARN,SalesRegion
   arn:aws:quicksight:us-east-1:123456789012:user/Bob,arn:aws:quicksight:us-east-1:123456789012:group/group-1,APAC
   arn:aws:quicksight:us-east-1:123456789012:user/Sam,arn:aws:quicksight:us-east-1:123456789012:group/group-2,US
   ```

   SQL の例を次に示します。

   ```
   /* for users*/
   	select User as UserName, SalesRegion, Segment
   	from tps-permissions;
   
   	/* for groups*/
   	select Group as GroupName, SalesRegion, Segment
   	from tps-permissions;
   ```

1. データセットルールのデータセットを作成します。簡単に検索できるようにするために、意味のある名前を付けます（**Permissions-Sales-Pipeline**）。

## 行レベルのセキュリティのためのルールデータセットのフラグ付け
<a name="rules-dataset-flagging-for-row-level-security"></a>

特定のデータセットをルールデータセットとして適切にフラグ付けするには、次の手順を使用します。

ルールデータセットは、行レベルのセキュリティに使用されるアクセス許可データセットを通常のデータセットと区別するフラグです。アクセス許可データセットが 2025 年 3 月 31 日より以前に通常のデータセットに適用された場合、**[データセット]** のランディングページに [ルールデータセット] のフラグが表示されます。

アクセス許可データセットが 2025 年 3 月 31 日までに通常のデータセットに適用されなかった場合、通常のデータセットとして分類されます。ルールデータセットとして使用するには、アクセス許可データセットを複製し、データセット作成時にコンソールでルールデータセットとしてフラグを付けます。EDIT DATASET を選択し、オプションで DUPLICATE AS RULES DATASET を選択します。

ルールデータセットとして正常に複製するには、元のデータセットが以下の両方の条件を満たしていることを確認します: 1. 必須のユーザーメタデータ列またはグループメタデータ列を含むこと。2. データ型が文字列型である列のみを含むこと。

コンソールで新しいルールデータセットを作成するには、[新しいデータセット] ドロップダウンで [新しいルールデータセット] を選択します。プログラムでルールデータセットを作成するときは、次のパラメータを追加します: [UseAs: RLS\$1RULES](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_CreateDataSet.html#API_CreateDataSet_RequestSyntax)。これは、ルールデータセットの作成にのみ使用されるオプションのパラメータです。コンソールまたはプログラムでデータセットが作成され、ルールデータセットまたは通常のデータセットとしてフラグ付けされると、変更することはできなくなります。

データセットがルールデータセットとしてフラグ付けされると、Amazon Quick は厳格な SPICE 取り込みルールを適用します。データ整合性を確保するために、長さ制限を超える無効な行またはセルがある場合、ルールデータセットの SPICE 取り込みは失敗します。正常な取り込みを再開するには、取り込みの問題を修正する必要があります。厳格な取り込みルールは、ルールデータセットにのみ適用されます。行のスキップや文字列の切り捨てがあっても、通常のデータセットではデータセットの取り込みが失敗することはありません。

## 行レベルのセキュリティの適用
<a name="apply-row-level-security"></a>

ファイルまたはクエリを、アクセス許可のルールを含むデータセットとして使用し、行レベルのセキュリティ (RLS) を適用するには、次の手順に従います。

**ファイルまたはクエリを使用して行レベルのセキュリティを適用するには**

1. ルールを新しいデータセットとして追加したことを確認します。追加してもデータセットのリストに表示されない場合は、画面を更新します。

1. **データ**ページで、データセットを選択します。

1. [Dataset details] (データセットの詳細) ページが開くので、**[Row-level security]** (行レベルのセキュリティ) で、**[Set up]** (セットアップ) を選択します。

1. 開いた **[Set up row-level security]** (行レベルのセキュリティ) ページで、**[User-based rules]** (ユーザーベースのルール) を選択します。

1. 表示されるデータセットのリストから、許可データセットを選択します。

   許可データセットがこの画面に表示されない場合は、データセットに戻り、ページを更新します。

1. **[Permissions policy]** (アクセス許可ポリシー) で **[Grant access to dataset]** (データセットへのアクセス権を付与する) をオンにします。各データセットにはただ 1 つのアクティブなアクセス許可データセットがあります。2 つ目のアクセス許可データセットを追加しようとすると、既存のものが上書きされます。
**重要**  
行レベルのセキュリティを使用するときは、NULL 値および空の文字列値にいくつかの制限が適用されます。  
データセットの制限されたフィールドに NULL 値または空の文字列 ("") がある場合、制限の適用時にこれらの行が無視されます。
アクセス許可のデータセット内で、NULL 値および空の文字列は同じように扱われます。詳細については、以下のテーブルを参照してください。
機密情報が誤って公開されないように、Amazon Quick はすべてのユーザーにアクセス権を付与する空の RLS ルールをスキップします。*空の RLS ルール*は、行のすべての列が値を持たない場合に発生します。Quick RLS は、NULL、空の文字列 (")、または空のカンマ区切り文字列 (",," など) を値なしとして扱います。  
空のルールのスキップ後も、他の非空の RLS ルールは引き続き適用されます。
許可データセットに空のルールしかなく、それらのルールがすべてスキップされた場合、この許可データセットによって制限されているデータには誰もアクセスできません。    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/restrict-access-to-a-data-set-using-row-level-security.html)

   データセットがデータセットのルールによって制限されている場合を除き、ダッシュボードを共有しているユーザーなら誰でもダッシュボード内の全データを表示できます。

1. **[Apply data set]** (データセットの適用) をクリックして変更を保存します。次に、**[Save data set rules?]** (データセットのルールを保存しますか?) ページで **[Apply and activate]** (適用とアクティベート) をクリックします。既存のユーザーへのアクセス許可の変更はすぐに適用されます。

1. (オプション) アクセス許可を削除するには、まずデータセットからデータセットのルールを削除します。

   データセットのルールが削除されたことを確認してください。次に、アクセス許可データセットを選択してから、**[Remove data set]** (データセットの削除) を選択します。

   アクセス許可を上書きするには、新しいアクセス許可データセットを選択して適用します。同じデータセット名を再利用できます。ただし、**Permissions** (アクセス許可) 画面で新しい許可を適用して、これらの許可がアクティブになるようにしてください。SQL クエリは動的に更新されるため、Amazon Quick の外部で管理できます。クエリの場合、直接クエリのキャッシュが自動更新されるときに、アクセス許可が更新されます。

ファイルベースのアクセス許可データセットを、対象のデータセットから削除する前に削除すると、制限されているユーザーはデータセットにアクセスすることができません。このデータセットがこの状態の間は、**[RESTRICTED]** (制限対象) のマークが付いたままになります。しかし、そのデータセットの **[Permission]** (アクセス許可) を表示すると、データセットのルールが選択されていないことがわかります。

この問題を修正するには、新しいデータセットルールを指定します。同じ名前のデータセットを作成するだけではこの問題は解決されません。**[Permissions]** (アクセス許可) 画面で新しい許可データセットを選択する必要があります。この制限は、ダイレクト SQL クエリには適用されません。

# 匿名ユーザー用のダッシュボードの埋め込み時におけるデータセットへのアクセスを制限するためのタグベースのルールでの行レベルのセキュリティの使用
<a name="quicksight-dev-rls-tags"></a>


|  | 
| --- |
|  適用対象: Enterprise Edition  | 


|  | 
| --- |
|    対象者:  Amazon Quick Administrators と Amazon Quick Developer  | 

Quick でプロビジョニング (登録) されていないユーザー用に Amazon Quick ダッシュボードをアプリケーションに埋め込む場合、行レベルのセキュリティ (RLS) を使用して、タグでデータをフィルタリング/制限できます。タグは、アプリケーション内のセッションを識別するユーザー指定の文字列です。タグを使用して、データセットの RLS コントロールを実装できます。データセットで RLS ベースの制限を設定することで、Quick はユーザー ID/セッションに関連付けられたセッションタグに基づいてデータをフィルタリングします。

例えば、さまざまな小売業者のための顧客向けアプリケーションを所有する物流会社があるとしましょう。これらの小売業者の何千人ものユーザーが、アプリケーションにアクセスし、倉庫からの注文の出荷状況に関する指標を確認します。

Quick で何千人ものユーザーを管理する必要がないため、匿名埋め込みを使用して、認証および承認されたユーザーが表示できる選択したダッシュボードをアプリケーションに埋め込みます。ただし、小売業者にはビジネス用のデータのみが表示され、他のデータは表示されないようにする必要があります。タグによる RLS を使用すると、顧客に関連するデータのみが表示されるようにできます。

そのためには、以下のステップを実行します。

1. RLS タグをデータセットに追加します。

1. `GenerateEmbedUrlForAnonymousUser` API オペレーションを使用して、実行時にこれらのタグに値を割り当てます。

   `GenerateEmbedUrlForAnonymousUser` API オペレーションを使用した匿名ユーザー向けダッシュボードの埋め込みに関する詳細については、[匿名 (未登録) ユーザー向けの Amazon Quick Sight ダッシュボードの埋め込み](embedded-analytics-dashboards-for-everyone.md) を参照してください。

タグによる RLS を使用するには、次の点に注意してください。
+ タグによる RLS の使用は、現在、匿名埋め込み (特に、`GenerateEmbedUrlForAnonymousUser` API オペレーションを使用する埋め込みダッシュボード) でのみサポートされています。
+ タグによる RLS の使用は、`GenerateEmbedURLForRegisteredUser` API オペレーションまたは古い `GetDashboardEmbedUrl` API オペレーションを使用する埋め込みダッシュボードではサポートされていません。
+ RLS タグは、 AWS Identity and Access Management (IAM) またはクイック ID タイプではサポートされていません。
+ SPICE データセットを行レベルのセキュリティに適用する場合、データセット内の各フィールドに最大 2,047 文字の Unicode 文字を含めることができます。このクォータを超えるフィールドは、取り込み中に切り捨てられます。SPICE データクォータの詳細については、「[インポートされたデータに対する SPICE クォータ](data-source-limits.md#spice-limits)」を参照してください。

## ステップ 1: データセットに RLS タグを追加する
<a name="quicksight-dev-rls-tags-add"></a>

Amazon Quick のデータセットにタグベースのルールを追加できます。または、`CreateDataSet` または `UpdateDataSet` API オペレーションを呼び出すことによってタグベースのルールを追加することもできます。詳細については、「[API を使用してデータセットに RLS タグを追加する](#quicksight-dev-rls-tags-add-api)」を参照してください。

Quick のデータセットに RLS タグを追加するには、次の手順に従います。

**RLS タグをデータセットに追加する**

1. クイックスタートページから、左側の**データ**を選択します。

1. RLS を追加するデータセットを選択します。

1. [Dataset details] (データセットの詳細) ページが開くので、**[Row-level security]** (行レベルのセキュリティ) で、**[Set up]** (セットアップ) を選択します。

1. 開いた **[Set up row-level security]** (行レベルのセキュリティを設定) ページで、**[Tag-based rules]** (タグベースのルール) を選択します。

1. **[Column]** (列) では、タグルールを追加する列を選択します。

   例えば、この物流会社の場合は、`retailer_id` 列が使用されます。

   文字列データ型の列のみがリストされます。

1. **[Tag]** (タグ) には、タグキーを入力します。任意のタグ名を入力できます。

   例えば、この物流会社の場合は、タグキー `tag_retailer_id` が使用されます。こうすることで、アプリケーションにアクセスする小売業者に基づいた行レベルのセキュリティが設定されます。

1. (オプション) **[Delimiter]** (区切り記号) には、リストから区切り記号を選択するか、独自の区切り記号を入力します。

   タグに複数の値を割り当てるときは、区切り記号を使用してテキスト文字列を区切ることができます。区切り記号の値は、最長で 10 文字にすることができます。

1. (オプション) **[Match all]** (すべて一致) には、**[\$1]** を選択するか、独自の文字 (1 つ、または複数) を入力します。

   このオプションは、データセット内のその列にあるすべての値でフィルタリングしたいときに使用する任意の文字にすることができます。値を 1 つずつリストする代わりに、この文字を使用できます。この値を指定する場合、少なくとも 1 文字、または最大 256 文字の長さにすることができます。

1. **[Add]** (追加) を選択します。

   タグルールがデータセットに追加されて最下部にリストされますが、まだ適用はされていません。データセットに別のタグルールを追加するには、ステップ 5～9 を繰り返します。タグルールを編集するには、ルールの後の鉛筆アイコンを選択します。タグルールを削除するには、ルールの後の削除アイコンを選択します。データセットには最大 50 個のタグを追加できます。

1. データセットにタグルールを適用する準備ができたら、**[Apply rules]** (ルールを適用) をクリックします。

1. **[Turn on tag-based security?]** (タグベースのセキュリティをオンにしますか?) で **[Apply and activate]** (適用とアクティベート) をクリックします。

   これでタグベースのルールがアクティブになりました。**[Set up row-level security]** (行レベルのセキュリティを設定) ページに、データセットのタグルールをオンとオフに切り替えるためのトグルが表示されます。

   データセット用のすべてのタグベースのルールを無効にするには、**[タグベースのルール]** トグルをオフにし、表示されるテキストボックスに「確認」と入力します。

   **データ**ページには、タグルールが有効になっていることを示すロックアイコンがデータセット行に表示されます。

   これで、[ステップ 2: ランタイム時に値を RLS タグに割り当てる](#quicksight-dev-rls-tags-assign-values) で説明されているように、ランタイム時にタグルールを使用してタグ値を設定できるようになりました。ルールは、アクティブな場合にのみクイックリーダーに影響します。
**重要**  
データセットでタグが割り当てられ、有効になったら、ダッシュボードの作成時にデータセット内のデータを表示するアクセス許可を Quick authors に付与してください。  
Quick authors にデータセット内のデータを表示するアクセス許可を付与するには、データセットルールとして使用するアクセス許可ファイルまたはクエリを作成します。詳細については、「[行レベルのセキュリティに対するデータセットルールの作成](restrict-access-to-a-data-set-using-row-level-security.md#create-data-set-rules-for-row-level-security)」を参照してください。

タグベースのルールを作成すると、タグベースのルールが相互にどのように関連しているかを示す新しい **[ルールを管理]** テーブルが表示されます。**[ルールを管理]** テーブルにリストされているルールを変更するには、ルールの後の鉛筆アイコンを選択します。その後、タグを追加または削除し、**[更新]** を選択します。更新したルールをデータセットに適用するには、**[適用]** を選択します。

### (オプション) RLS タグに OR 条件を追加する
<a name="quicksight-dev-rls-tags-or"></a>

タグベースのルールに OR 条件を追加して、クイックアカウントユーザーにデータを表示する方法をさらにカスタマイズすることもできます。タグベースのルールで OR 条件を使用すると、ルールで定義された少なくとも 1 つのタグが有効であれば、Quick のビジュアルが表示されます。

**タグベースのルールに OR 条件を追加するには**

1. **[ルールを管理]** テーブルで、**[OR 条件を追加]** を選択します。

1. 表示される **[タグを選択]** ドロップダウンリストで、OR 条件を作成するタグを選択します。**[ルールを管理]** テーブルには、最大 50 個の OR 条件を追加できます。データセット内の 1 つの列に複数のタグを追加できますが、1 つのルールには少なくとも 1 つの列タグが含まれている必要があります。

1. **[更新]** を選択してルールに条件を追加し、**[適用]** を選択して更新されたルールをデータセットに適用します。

### API を使用してデータセットに RLS タグを追加する
<a name="quicksight-dev-rls-tags-add-api"></a>

別の手段として、`CreateDataSet` または `UpdateDataSet` API オペレーションを呼び出すことによって、データセットにタグベースの行レベルのセキュリティを設定し、有効化することもできます。以下の例を使って説明します。

**重要**  
API コールでセッションタグを設定する場合、  
セッションタグをセキュリティ認証情報として扱います。セッションタグをエンドユーザーまたはクライアント側のコードに公開しないでください。
サーバー側のコントロールを実装します。セッションタグは、エンドユーザーが変更できるパラメータではなく、信頼できるバックエンドサービスによってのみ設定されていることを確認してください。
セッションタグを列挙から保護します。あるテナントのユーザーが、他のテナントに属する sessionTag 値を検出または推測できないようにします。
アーキテクチャを確認します。ダウンストリームの顧客またはパートナーが API を直接呼び出すことが許可されている場合は、アクセスすべきでないテナントに sessionTag 値を指定できるかどうかを評価します。

------
#### [ CreateDataSet ]

以下は、タグによる RLS を使用するデータセットを作成する例です。これは、前述の物流会社のシナリオを想定しています。タグは、`row-level-permission-tag-configuration` 要素で定義されています。タグは、データを保護する列に対して定義されています。このオプション要素の詳細については、*Amazon Quick API リファレンス*の[RowLevelPermissionTagConfiguration](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_RowLevelPermissionTagConfiguration.html)」を参照してください。

```
create-data-set
		--aws-account-id <value>
		--data-set-id <value>
		--name <value>
		--physical-table-map <value>
		[--logical-table-map <value>]
		--import-mode <value>
		[--column-groups <value>]
		[--field-folders <value>]
		[--permissions <value>]
		[--row-level-permission-data-set <value>]
		[--column-level-permission-rules <value>]
		[--tags <value>]
		[--cli-input-json <value>]
		[--generate-cli-skeleton <value>]
		[--row-level-permission-tag-configuration 
	'{
		"Status": "ENABLED",
		"TagRules": 
			[
				{
					"TagKey": "tag_retailer_id",
					"ColumnName": "retailer_id",
					"TagMultiValueDelimiter": ",",
					"MatchAllValue": "*"
				},
				{
					"TagKey": "tag_role",
					"ColumnName": "role"
				}
			],
		"TagRuleConfigurations":
			[
				tag_retailer_id
			],
			[
				tag_role
			]
	}'
]
```

この例のタグは、要素の `TagRules` 部分で定義されています。この例では、2 つの列に基づいて 2 つのタグが定義されています。
+ `tag_retailer_id` タグキーは `retailer_id` 列に対して定義されています。この物流会社の場合は、アプリケーションにアクセスしている小売業者に基づいて行レベルのセキュリティが設定されます。
+ `tag_role` タグキーは `role` 列に対して定義されています。この物流会社の場合は、特定の小売業者からアプリケーションにアクセスしているユーザーのロールに基づいて、行レベルのセキュリティの追加レイヤーが設定されます。例として、`store_supervisor` または `manager` があります。

タグごとに、`TagMultiValueDelimiter` および `MatchAllValue` を定義できます。これらはオプションです。
+ `TagMultiValueDelimiter` - このオプションは、ランタイム時に値を渡すときにそれらを区切るために使用する任意の文字列にすることができます。値の最大長は 10 文字です。この場合、区切り文字の値としてカンマが使用されます。
+ `MatchAllValue` - このオプションは、データセット内のその列にあるすべての値でフィルタリングしたいときに使用する任意の文字にすることができます。値を 1 つずつリストする代わりに、この文字を使用できます。指定する場合、この値は 1 文字から 256 文字までの長さにすることができます。この場合、すべての値の一致としてアスタリスクが使用されます。

データセット列のタグを設定するときに、必須プロパティの `Status` を使用して、それらを有効または無効にします。タグルールを有効にするには、このプロパティに対して値 `ENABLED` を使用します。タグルールを有効にすることによって、[ステップ 2: ランタイム時に値を RLS タグに割り当てる](#quicksight-dev-rls-tags-assign-values) で説明されているように、ランタイム時にタグルールを使用してタグ値を設定できます。

以下は、応答の定義の例です。

```
{
			"Status": 201,
			"Arn": "arn:aws:quicksight:us-west-2:11112222333:dataset/RLS-Dataset",
			"DataSetId": "RLS-Dataset",
			"RequestId": "aa4f3c00-b937-4175-859a-543f250f8bb2"
		}
```

------
#### [ UpdateDataSet ]

**UpdateDataSet**

`UpdateDataSet` API オペレーションを使用して、既存のデータセットの RLS タグを追加または更新できます。

以下は、RLS タグを持つデータセットを更新する例です。これは、前述の物流会社のシナリオを想定しています。

```
update-data-set
		--aws-account-id <value>
		--data-set-id <value>
		--name <value>
		--physical-table-map <value>
		[--logical-table-map <value>]
		--import-mode <value>
		[--column-groups <value>
		[--field-folders <value>]
		[--row-level-permission-data-set <value>]
		[--column-level-permission-rules <value>]
		[--cli-input-json <value>]
		[--generate-cli-skeleton <value>]
				[--row-level-permission-tag-configuration 
	'{
		"Status": "ENABLED",
		"TagRules": 
			[
				{
					"TagKey": "tag_retailer_id",
					"ColumnName": "retailer_id",
					"TagMultiValueDelimiter": ",",
					"MatchAllValue": "*"
				},
				{
					"TagKey": "tag_role",
					"ColumnName": "role"
				}
			],
		"TagRuleConfigurations":
			[
				tag_retailer_id
			],
			[
				tag_role
			]
	}'
]
```

以下は、応答の定義の例です。

```
{
			"Status": 201,
			"Arn": "arn:aws:quicksight:us-west-2:11112222333:dataset/RLS-Dataset",
			"DataSetId": "RLS-Dataset",
			"RequestId": "aa4f3c00-b937-4175-859a-543f250f8bb2"
		}
```

------

**重要**  
データセットでタグが割り当てられ、有効になったら、ダッシュボードの作成時にデータセット内のデータを表示するアクセス許可を Quick authors に付与してください。  
Quick authors にデータセット内のデータを表示するアクセス許可を付与するには、データセットルールとして使用するアクセス許可ファイルまたはクエリを作成します。詳細については、「[行レベルのセキュリティに対するデータセットルールの作成](restrict-access-to-a-data-set-using-row-level-security.md#create-data-set-rules-for-row-level-security)」を参照してください。

`RowLevelPermissionTagConfiguration` 要素の詳細については、*Amazon Quick API リファレンス*の[RowLevelPermissionTagConfiguration](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_RowLevelPermissionTagConfiguration.html)」を参照してください。

## ステップ 2: ランタイム時に値を RLS タグに割り当てる
<a name="quicksight-dev-rls-tags-assign-values"></a>

RLS のタグは、匿名埋め込みにのみ使用できます。`GenerateEmbedUrlForAnonymousUser` API オペレーションを使用してタグの値を設定できます。

**重要**  
API コールでセッションタグを設定する場合、  
セッションタグをセキュリティ認証情報として扱います。セッションタグをエンドユーザーまたはクライアント側のコードに公開しないでください。
サーバー側のコントロールを実装します。セッションタグは、エンドユーザーが変更できるパラメータではなく、信頼できるバックエンドサービスによってのみ設定されていることを確認してください。
セッションタグを列挙から保護します。あるテナントのユーザーが、他のテナントに属する sessionTag 値を検出または推測できないようにします。
アーキテクチャを確認します。ダウンストリームの顧客またはパートナーが API を直接呼び出すことが許可されている場合は、アクセスすべきでないテナントに sessionTag 値を指定できるかどうかを評価します。

以下の例は、前のステップでデータセットで定義された RLS タグに値を割り当てる方法を示しています。

```
POST /accounts/AwsAccountId/embed-url/anonymous-user
	HTTP/1.1
	Content-type: application/json
	{
		“AwsAccountId”: “string”,
		“SessionLifetimeInMinutes”: integer,
		“Namespace”: “string”, // The namespace to which the anonymous end user virtually belongs
		“SessionTags”:  // Optional: Can be used for row-level security
			[
				{
					“Key”: “tag_retailer_id”,
					“Value”: “West,Central,South”
				}
				{
					“Key”: “tag_role”,
					“Value”: “shift_manager”
				}
			],
		“AuthorizedResourceArns”:
			[
				“string”
			],
		“ExperienceConfiguration”:
			{
				“Dashboard”:
					{
						“InitialDashboardId”: “string”
						// This is the initial dashboard ID the customer wants the user to land on. This ID goes in the output URL.
					}
			}
	}
```

以下は、応答の定義の例です。

```
HTTP/1.1 Status
	Content-type: application/json

	{
	"EmbedUrl": "string",
	"RequestId": "string"
	}
```

Quick でユーザーを登録しない RLS サポートは、 `GenerateEmbedUrlForAnonymousUser` API オペレーションでのみサポートされます。このオペレーションでは、`SessionTags` で、データセット列に関連付けられたタグの値を定義できます。

この場合、以下の割り当てが定義されています。
+ `West`、`Central`、および `South` の各値は、ランタイム時に `tag_retailer_id` タグに割り当てられます。区切り文字には、データセットの `TagMultipleValueDelimiter` で定義されたカンマが使用されます。列でコール値を使用するには、値を、タグの作成時に `MatchAllValue` として定義された *\$1* に設定します。
+ 値 `shift_manager` は `tag_role` タグに割り当てられます。

生成された URL を使用するユーザーは、`role` 列に値 `shift_manager` がある行のみを表示できます。このユーザーは、`retailer_id` 列の `West`、`Central`、または `South` 値のみを表示できます。

`GenerateEmbedUrlForAnonymousUser` API オペレーションを使用した匿名ユーザーのダッシュボードの埋め込みの詳細については、[匿名 (未登録) ユーザー向けの Amazon Quick Sight ダッシュボードの埋め込み](embedded-analytics-dashboards-for-everyone.md)「」または*「Amazon Quick API リファレンス*」の[GenerateEmbedUrlForAnonymousUser](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_GenerateEmbedUrlForAnonymousUser.html)」を参照してください。

# データセットへのアクセスを制限するために列レベルのセキュリティを使用する
<a name="restrict-access-to-a-data-set-using-column-level-security"></a>

Quick の Enterprise Edition では、データセットに対する列レベルのセキュリティ (CLS) を設定することで、データセットへのアクセスを制限できます。CLS が有効なデータセットまたは分析では、制限対象の記号 ![\[The lock icon for CLS.\]](http://docs.aws.amazon.com/ja_jp/quick/latest/userguide/images/cls-restricted-icon.png) を横におきます。デフォルトでは、すべてのユーザーとグループにデータへのアクセス権があります。CLS を使用することにより、データセット内の特定の列へのアクセスを管理することができます。

アクセスできない CLS 制限のあるデータセットを含む分析またはダッシュボードを使用する場合、制限対象のフィールドを使用するビジュアルを作成、表示、または編集することはできません。ほとんどのビジュアルタイプでは、アクセス権のない制限対象の列がビジュアルに含まれている場合、そのビジュアルは分析やダッシュボードに表示されません。

テーブルとピボットテーブルの動作は異なります。テーブルまたはピボットテーブルで、**[Rows]** (行) または **[Columns]** (列) のフィールドウェルがあり、これらの制限対象の列にアクセスできない場合、分析やダッシュボードでビジュアルを表示できません。テーブルまたはピボットテーブルに、**[Values]** (値) フィールドで制限された列があると、アクセス可能な値のみを含む分析またはダッシュボードのテーブルが表示されます。制限対象の列の値は、[Not Authorized] (権限がありません) と表示されます。

分析またはダッシュボードで列レベルのセキュリティを有効にするには、管理者アクセス権が必要です。

**CLS で新しい分析を作成するには**

1. クイックスタートページで、**分析**タブを選択します。

1. 右上で **[New analysis]** (新しい分析) を選択します。

1. データセットを選択し、**[Column-level security]** (列レベルのセキュリティ) を選択します。

1. 制限する列を選択し、**[Next]** (次へ) を選択します。デフォルトでは、すべてのグループとユーザーがすべての列にアクセスできます。

1. 各列にアクセスできるユーザーを選択し、**[Apply]** (適用) を選択して変更を保存します。

**CLS の既存の分析を使用するには**

1. クイックスタートページで、**データ**タブを選択します。

1. データページで、データセットを開きます。

1. データセットの詳細ページが開くので、**[Column-level security]** (列レベルのセキュリティ) で **[Set up]** (セットアップ) を選択します。

1. 制限する列を選択し、**[Next]** (次へ) を選択します。デフォルトでは、すべてのグループとユーザーがすべての列にアクセスできます。

1. 各列にアクセスできるユーザーを選択し、**[Apply]** (適用) を選択して変更を保存します。

**CLS 付きのダッシュボードを作成するには**

1. クイックナビゲーションペインで、**分析**タブを選択します。

1. ダッシュボードを作成する分析を選択します。

1. 右上にある **[公開]** を選択します。

1. 次のいずれかを選択します。
   + 新しいダッシュボードを作成するには、**[Publish new dashboard as]** (新しいダッシュボードに名前を付けて公開) を選択し、ダッシュボード名を入力します。
   + **[Replace an existing dashboard]** (既存のダッシュボードを置き換える) を選択し、置き換えるダッシュボードを選択します。

   さらに、**[Advanced publish options]** (高度な公開オプション) を選択します。詳細については、「[ダッシュボードの公開](creating-a-dashboard.md)」を参照してください。

1. **[ダッシュボードの公開]** を選択します。

1. (オプション) 次のいずれかを実行します。
   + 共有せずにダッシュボードを公開するには、[**Share dashboard with users (ダッシュボードをユーザーと共有する)**] 画面が表示されたときに画面の右上にある [**x**] を選択します。アプリケーションバーから **[Share]** (共有) を選択すれば、いつでもダッシュボードを共有できます。
   + 「[Amazon Quick Sight ダッシュボードの共有](sharing-a-dashboard.md)」の手順に従って、ダッシュボードを共有します。

# Amazon Quick での IAM ロールとしてのクエリの実行
<a name="datasource-run-as-role"></a>

Amazon Athena、Amazon Redshift または Amazon S3 に接続されたデータソースに対してより広範な許可を与えるのではなく、きめ細かなアクセスポリシーを使用することで、データセキュリティを強化できます。まず、ユーザーまたは API がクエリを開始したときにアクティブになる権限を持つ AWS Identity and Access Management (IAM) ロールを作成します。次に、クイック管理者または開発者が IAM ロールを Athena または Amazon S3 データソースに割り当てます。ロールを設定すると、クエリを実行するすべてのユーザーまたは API に、クエリを実行するのに必要な正確な権限が付与されます。

データセキュリティを強化するために run-as ロールの実装に取り掛かる前に、考慮すべき点がいくつかあります。
+ 追加のセキュリティがどのように役立つかを明確にします。
+ クイック管理者と協力して、データソースにロールを追加すると、セキュリティの目標や要件をより適切に満たすことができるかどうかを確認してください。
+ データソース、関係する人、アプリケーションの数を考慮して、この種のセキュリティをチームで適切に文書化して管理できるかどうか尋ねてみてください。そうでない場合、その作業は誰が引き受けるのでしょうか？
+ 構造化された組織では、運用、開発、IT サポートといった並列チームに関係者を配置します。彼らの経験、アドバイス、そしてあなたの計画をサポートしたいという意欲を求めてください。
+ プロジェクトを開始する前に、データへのアクセスを必要とする人を対象とした概念実証を行うことを検討してください。

Athena、Amazon Redshift または Amazon S3 での run-as ロールの使用には、次のルールが適用されます。
+ 各データソースには、1 つの RoleArn しか関連付けられません。通常、データセットやビジュアルにアクセスするデータソースの使用者は、さまざまな種類のクエリを生成できます。このロールは、どのクエリが機能するか、どのクエリが機能しないかについての境界を設定します。
+ ARN は、それを使用するクイックインスタンス AWS アカウント と同じ の IAM ロールに対応する必要があります。
+ IAM ロールには、Quick がロールを引き受けることを可能にする信頼関係が必要です。
+ Quick の APIs を呼び出す ID には、 `RoleArn` プロパティを更新する前にロールを渡すアクセス許可が必要です。ロール ARN を作成または更新する場合にのみ、ロールを渡す必要があります。権限は後で再評価されません。同様に、ロール ARN を省略しても権限は不要です。
+ ロール ARN を省略すると、Athena または Amazon S3 データソースはアカウント全体のロールとスコープダウンポリシーを使用します。
+ ロール ARN が存在する場合、アカウント全体のロールとスコープダウンポリシーの両方が無視されます。Athena データソースの場合、Lake Formation 許可は無視されません。
+ Amazon S3 データソースの場合、マニフェストファイルとマニフェストファイルによって指定されたデータの両方に、IAM ロールを使用してアクセスできる必要があります。
+ ARN 文字列は、 AWS リージョン データが配置およびクエリされる AWS アカウント および の既存の IAM ロールと一致する必要があります。

Quick が の別のサービスに接続すると AWS、IAM ロールが使用されます。デフォルトでは、この詳細度の低いバージョンのロールは、使用するサービスごとに Quick によって作成され、ロールは AWS アカウント 管理者によって管理されます。カスタムのアクセス権限ポリシーを含む IAM ロール ARN を追加すると、追加の保護が必要なデータソースのより広範なロールがオーバーライドされます。ポリシーの詳細については、「IAM ユーザーガイド」の「[カスタマー管理ポリシーの作成](https://docs.aws.amazon.com/IAM/latest/UserGuide/tutorial_managed-policies.html)」を参照してください。

## Athena データソースを使用してクエリを実行する
<a name="datasource-run-as-role-athena"></a>

API を使用して ARN を Athena データソースにアタッチします。これを実行するには、[AthenaParameters](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_AthenaParameters.html) の [RoleArn](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_RoleArn.html) プロパティにロール ARN を追加します。確認のために、**[Athena データソースを編集]** ダイアログボックスでロール ARN を表示できます。ただし、**[ロール ARN]** は読み取り専用フィールドです。

開始するには、カスタム IAM ロールが必要です。これを次の例で示します。

次のコード例は、学習のみを目的として提供されていることに注意してください。この例は、一時的な開発およびテスト環境でのみ使用し、本番環境では使用しないでください。この例のポリシーは、特定のリソースを保護しません。特定のリソースはデプロイ可能なポリシーに含まれている必要があります。また、開発のためにも独自の AWS アカウント情報を追加する必要があります。

次のコマンドは、シンプルな新しいロールを作成し、Quick にアクセス許可を付与するいくつかのポリシーをアタッチします。

```
aws iam create-role \
        --role-name TestAthenaRoleForQuickSight \
        --description "Test Athena Role For QuickSight" \
        --assume-role-policy-document '{
            "Version": "2012-10-17"		 	 	 ,
            "Statement": [
                {
                    "Effect": "Allow",
                    "Principal": {
                        "Service": "quicksight.amazonaws.com"
                    },
                    "Action": "sts:AssumeRole"
                }
            ]
        }'
```

各データソースで使用する IAM ロールを特定または作成したら、attach-role-policy を使用してポリシーをアタッチします。

```
aws iam attach-role-policy \
        --role-name TestAthenaRoleForQuickSight \
        --policy-arn arn:aws:iam::222222222222:policy/service-role/AWSQuickSightS3Policy1

    aws iam attach-role-policy \
        --role-name TestAthenaRoleForQuickSight \
        --policy-arn arn:aws:iam::aws:policy/service-role/AWSQuicksightAthenaAccess1

    aws iam attach-role-policy \
        --role-name TestAthenaRoleForQuickSight \
        --policy-arn arn:aws:iam::aws:policy/AmazonS3Access1
```



アクセス許可を確認したら、新しいロールを作成するか、既存のロールを更新することで、クイックデータソースでロールを使用できます。これらのコマンドを使用する場合は、 AWS アカウント ID と を更新 AWS リージョン して独自のコマンドと一致させます。

これらのサンプルコードスニペットは本番環境向けではないことに注意してください。 AWS は、本番では、一連の最小特権ポリシーを特定して使用することを強くお勧めします。

```
aws quicksight create-data-source
        --aws-account-id 222222222222 \
        --region us-east-1 \
        --data-source-id "athena-with-custom-role" \
        --cli-input-json '{
            "Name": "Athena with a custom Role",
            "Type": "ATHENA",
            "data sourceParameters": {
                "AthenaParameters": {
                    "RoleArn": "arn:aws:iam::222222222222:role/TestAthenaRoleForQuickSight"
                }
            }
        }'
```

## Amazon Redshift データソースを使用してクエリを実行する
<a name="datasource-run-as-role-redshift"></a>

Amazon Redshift データを run-as ロールと接続して、きめ細かいアクセスポリシーでデータセキュリティを強化します。パブリックネットワークまたは VPC 接続を使用する Amazon Redshift データソース用の run-as ロールを作成できます。**[Amazon Redshift データソースの編集]** ダイアログボックスで使用する接続タイプを指定します。run-as ロールは、Amazon Redshift Serverless データソースはサポートされていません。

開始するには、カスタム IAM ロールが必要です。これを次の例で示します。次のコマンドは、新しいロールのサンプルを作成し、Quick にアクセス許可を付与するポリシーをアタッチします。

```
aws iam create-role \
--role-name TestRedshiftRoleForQuickSight \
--description "Test Redshift Role For QuickSight" \
--assume-role-policy-document '{
    "Version": "2012-10-17"		 	 	 ,
    "Statement": [
        {
            "Effect": "Allow",
            "Principal": {
                "Service": "quicksight.amazonaws.com"
            },
            "Action": "sts:AssumeRole"
        }
    ]
}'
```

各データソースで使用する IAM ロールを特定または作成したら、`attach-role-policy` を使用してポリシーをアタッチします。使用するロールに `redshift:GetClusterCredentialsWithIAM` アクセス許可がアタッチされている場合、 `DatabaseUser` と `DatabaseGroups` の値はオプションです。

```
aws iam attach-role-policy \
--role-name TestRedshiftRoleForQuickSight \
--policy-arn arn:aws:iam:111122223333:policy/service-role/AWSQuickSightRedshiftPolicy
    
        
aws iam create-policy --policy-name RedshiftGetClusterCredentialsPolicy1 \
--policy-document file://redshift-get-cluster-credentials-policy.json 


aws iam attach-role-policy \
--role-name TestRedshiftRoleForQuickSight \
--policy-arn arn:aws:iam:111122223333:policy/RedshiftGetClusterCredentialsPolicy1
// redshift-get-cluster-credentials-policy.json
{
    "Version": "2012-10-17"		 	 	 ,
    "Statement": [
        {
            "Sid": "RedshiftGetClusterCredentialsPolicy",
            "Effect": "Allow",
            "Action": [
                "redshift:GetClusterCredentials"
            ],
            "Resource": [
                "*"
            ]
        }
    ]
}
```

上記の例では、`RoleARN`、`DatabaseUser`、`DatabaseGroups` の IAM パラメータを使用するデータソースを作成します。IAM `RoleARN` パラメータを介してのみ接続を確立する場合は、以下の例に示すように、 `redshift:GetClusterCredentialsWithIAM` アクセス許可をロールにアタッチします。

```
aws iam attach-role-policy \ 
--role-name TestRedshiftRoleForQuickSight \ 
--policy-arn arn:aws:iam:111122223333:policy/RedshiftGetClusterCredentialsPolicy1 // redshift-get-cluster-credentials-policy.json {
    "Version": "2012-10-17"		 	 	 ,
    "Statement": [ 
        {
            "Sid": "RedshiftGetClusterCredentialsPolicy", 
            "Effect": "Allow", 
            "Action": [ "redshift:GetClusterCredentialsWithIAM" ],
            "Resource": [ "*" ]
        }
    ]
}"
```

アクセス許可を確認したら、新しいロールを作成するか、既存のロールを更新することで、クイックデータソースでロールを使用できます。これらのコマンドを使用する場合は、 AWS アカウント ID と AWS リージョンを独自のものに合わせて更新します。

```
aws quicksight create-data-source \
--region us-west-2 \
--endpoint https://quicksight.us-west-2.quicksight.aws.com/ \
--cli-input-json file://redshift-data-source-iam.json \
redshift-data-source-iam.json is shown as below
{
    "AwsAccountId": "AWSACCOUNTID",
    "DataSourceId": "DATSOURCEID",
    "Name": "Test redshift demo iam",
    "Type": "REDSHIFT",
    "DataSourceParameters": {
        "RedshiftParameters": {
            "Database": "integ",
            "Host": "redshiftdemocluster.us-west-2.redshift.amazonaws.com",
            "Port": 8192,
            "ClusterId": "redshiftdemocluster",
            "IAMParameters": {
                "RoleArn": "arn:aws:iam::222222222222:role/TestRedshiftRoleForQuickSight",
                "DatabaseUser": "user",
                "DatabaseGroups": ["admin_group", "guest_group", "guest_group_1"]
            }
        }
    },
    "Permissions": [
      {
        "Principal": "arn:aws:quicksight:us-east-1:AWSACCOUNTID:user/default/demoname",
        "Actions": [
          "quicksight:DescribeDataSource",
          "quicksight:DescribeDataSourcePermissions",
          "quicksight:PassDataSource",
          "quicksight:UpdateDataSource",
          "quicksight:DeleteDataSource",
          "quicksight:UpdateDataSourcePermissions"
        ]
      }
    ]
}
```

データソースが VPC 接続タイプを使用している場合は、次の VPC 設定を使用してください。

```
{
    "AwsAccountId": "AWSACCOUNTID",
    "DataSourceId": "DATSOURCEID",
    "Name": "Test redshift demo iam vpc",
    "Type": "REDSHIFT",
    "DataSourceParameters": {
        "RedshiftParameters": {
            "Database": "mydb",
            "Host": "vpcdemo.us-west-2.redshift.amazonaws.com",
            "Port": 8192,
            "ClusterId": "vpcdemo",
            "IAMParameters": {
                "RoleArn": "arn:aws:iam::222222222222:role/TestRedshiftRoleForQuickSight",
                "DatabaseUser": "user",
                "AutoCreateDatabaseUser": true
            }
        }
    },
    "VpcConnectionProperties": { 
      "VpcConnectionArn": "arn:aws:quicksight:us-west-2:222222222222:vpcConnection/VPC Name"
    },
    "Permissions": [
      {
        "Principal": "arn:aws:quicksight:us-east-1:222222222222:user/default/demoname",
        "Actions": [
          "quicksight:DescribeDataSource",
          "quicksight:DescribeDataSourcePermissions",
          "quicksight:PassDataSource",
          "quicksight:UpdateDataSource",
          "quicksight:DeleteDataSource",
          "quicksight:UpdateDataSourcePermissions"
        ]
      }
    ]
}
```

データソースが `redshift:GetClusterCredentialsWithIAM` アクセス許可を使用し、 `DatabaseUser` または `DatabaseGroups` パラメータを使用しない場合は、ロールにスキーマの一部またはすべてのテーブルへのアクセスを付与します。ロールに特定のテーブルへの `SELECT` アクセス許可が付与されているかどうかを確認するには、Amazon Redshift クエリエディタに次のコマンドを入力します。

```
SELECT
u.usename,
t.schemaname||'.'||t.tablename,
has_table_privilege(u.usename,t.tablename,'select') AS user_has_select_permission
FROM
pg_user u
CROSS JOIN
pg_tables t
WHERE
u.usename = 'IAMR:RoleName'
AND t.tablename = tableName
```

Amazon Redshift クエリエディタの `SELECT` アクションの詳細については、「[SELECT](https://docs.aws.amazon.com/redshift/latest/dg/r_SELECT_synopsis.html)」を参照してください。

ロールに `SELECT` アクセス許可を付与するには、Amazon Redshift クエリエディタに次のコマンドを入力します。

```
GRANT SELECT ON { [ TABLE ] table_name [, ...] | ALL TABLES IN SCHEMA 
schema_name [, ...] } TO "IAMR:Rolename";
```

Amazon Redshift クエリエディタの `GRANT` アクションの詳細については、「[GRANT](https://docs.aws.amazon.com/redshift/latest/dg/r_GRANT.html)」を参照してください。

## Amazon S3 データソースを使用してクエリを実行する
<a name="datasource-run-as-role-s3"></a>

Amazon S3 データソースには、Quick がデータの検索と解析に使用するマニフェストファイルが含まれています。クイックコンソールから JSON マニフェストファイルをアップロードすることも、S3 バケット内の JSON ファイルを指す URL を指定することもできます。URL を指定する場合は、Amazon S3 の ファイルにアクセスするためのアクセス許可が Quick に付与されている必要があります。クイック管理コンソールを使用して、マニフェストファイルとそれが参照するデータへのアクセスを制御します。

**RoleArn** プロパティを使用すると、アカウント全体のロールをオーバーライドするカスタム IAM ロールを通じて、マニフェストファイルとそれが参照するデータへのアクセスを付与できます。API を使用して、ARN を Amazon S3 データソースのマニフェストファイルにアタッチします。これを実行するには、[S3Parameters](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_S3Parameters.html) の [RoleArn](https://docs.aws.amazon.com/quicksight/latest/APIReference/API_RoleArn.html) プロパティにロール ARN を含めます。確認のために、**[S3 データソースを編集]** ダイアログボックスでロール ARN を表示できます。ただし、次のスクリーンショットに示すように、**[Role ARN]** (ロール ARN) は読み取り専用フィールドです。

開始するには、Amazon S3 マニフェストファイルを作成します。次に、新しい Amazon S3 データセットを作成するときに Amazon Quick にアップロードするか、データファイルを含む Amazon S3 バケットにファイルを配置できます。マニフェストファイルがどのようなものかを確認するには、次の例を参照してください。

```
{
    "fileLocations": [
        {
            "URIPrefixes": [
                "s3://quicksightUser-run-as-role/data/"
            ]
        }
    ],
    "globalUploadSettings": {
        "format": "CSV",
        "delimiter": ",",
        "textqualifier": "'",
        "containsHeader": "true"
    }
}
```

マニフェストファイルの作成方法については、「[Amazon S3 のマニフェストファイルでサポートされている形式](supported-manifest-file-format.md)」を参照してください。

マニフェストファイルを作成して Amazon S3 バケットに追加するか、クイックにアップロードしたら、`s3:GetObject`アクセス権を付与する IAM の既存のロールを作成または更新します。次の例は、 AWS API を使用して既存の IAM ロールを更新する方法を示しています。

```
aws iam put-role-policy \
    --role-name QuickSightAccessToS3RunAsRoleBucket \
    --policy-name GrantS3RunAsRoleAccess \
    --policy-document '{
        "Version": "2012-10-17"		 	 	 ,
        "Statement": [
            {
                "Effect": "Allow",
                "Action": "s3:ListBucket",
                "Resource": "arn:aws:s3:::s3-bucket-name"
            },
            {
                "Effect": "Allow",
                "Action": "s3:GetObject",
                "Resource": "arn:aws:s3:::s3-bucket-name/manifest.json"
            },
            {
                "Effect": "Allow",
                "Action": "s3:GetObject",
                "Resource": "arn:aws:s3:::s3-bucket-name/*"
            }
        ]
    }'
```

ポリシーによって `s3:GetObject` アクセスが付与されたら、Amazon S3 データソースのマニフェストファイルに更新された `put-role-policy` を適用するデータソースの作成を開始できます。

```
aws quicksight create-data-source --aws-account-id 111222333444 --region us-west-2 --endpoint https://quicksight.us-west-2.quicksight.aws.com/ \
    --data-source-id "s3-run-as-role-demo-source" \
    --cli-input-json '{
        "Name": "S3 with a custom Role",
        "Type": "S3",
        "DataSourceParameters": {
            "S3Parameters": {
                "RoleArn": "arn:aws:iam::111222333444:role/QuickSightAccessRunAsRoleBucket",
                "ManifestFileLocation": {
                    "Bucket": "s3-bucket-name", 
                    "Key": "manifest.json"
                }
            }
        }
    }'
```

アクセス許可を確認したら、新しいロールを作成するか、既存のロールを更新することで、クイックデータソースでロールを使用できます。これらのコマンドを使用する場合は、必ず AWS アカウント ID と を更新 AWS リージョン して独自のコマンドと一致させてください。

# データセットの削除
<a name="delete-a-data-set"></a>

**重要**  
現在、データセットの削除は元に戻せず、元に戻すことができない作業損失が生じる可能性があります。削除は、依存オブジェクトを削除するためにカスケードしません。代わりに、削除されたデータセットを同一のデータセットに置き換える場合でも、依存オブジェクトは動作を停止します。

データセットを削除する前に、まず各依存分析またはダッシュボードに新しいデータセットを指定することが強く推奨されます。

現在、依存ビジュアルがまだ存在しているときにデータセットを削除した場合、それらのビジュアルを含む分析とダッシュボードには、新しいメタデータを同化する方法がありません。表示したままですが、機能できません。同一のデータセットを追加して修復することはできません。

これは、データセットに、そのデータセットに依存している分析とダッシュボードに不可欠な、メタデータが含まれているためです。このメタデータは、データセットごとに一意に生成されます。Quick Sight エンジンはメタデータを読み取ることができますが、人間が読み取ることはできません (たとえば、フィールド名は含まれません）。そのため、データセットの正確なレプリカには異なるメタデータがあります。各データセットのメタデータは、同じ名前とフィールドを共有する複数のデータセットであっても、一意です。

**データセットを削除するには**

1. 開始する前に、他のユーザーが引き続き使用したい分析やダッシュボードに、データセットが使用されていないことを確認します。

   **データ**ページで、不要になったデータセットを選択します。次に、右上の **[Delete Dataset]** (データセットを削除) を選択します。

1. このデータセットが使用中であるという警告が表示された場合は、すべての依存分析とダッシュボードを追跡し、別のデータセットを指定します。これを実行できない場合は、削除するのではなく、以下のベストプラクティスを 1 つ以上試します。
   + データセットの名前を変更し、データセットが明確に廃止されるようにします。
   + データセットに行が追加されないよう、データをフィルタリングします。
   + 他のすべてのユーザーによるデータセットへのアクセスを削除します。

   できる手段をすべて使用して、依存オブジェクトの所有者にこのデータセットが廃止されることを通知します。また、アクションを実行するのに十分な時間を提供していることを確認してください。

1. データセットが削除された後に機能しなくなる依存オブジェクトがないことを確認したら、データセットを選択し、**[Delete Data Set]** (データセットの削除) を選択します。選択を確定するか、[**Cancel (キャンセル)**] を選択します。

**重要**  
現在、データセットの削除は元に戻せず、元に戻すことができない作業損失が生じる可能性があります。削除は、依存オブジェクトを削除するためにカスケードしません。代わりに、削除されたデータセットを同一のデータセットに置き換える場合でも、依存オブジェクトは動作を停止します。

# 分析へのデータセットの追加
<a name="adding-a-data-set-to-an-analysis"></a>

分析を作成したら、この分析にさらなるデータセットを追加できます。次に、これらのデータセットを使用して、さらに多くのビジュアルを作成できます。

分析内から、フィールドの追加や削除、またはその他のデータ準備の実行などの編集作業のために任意のデータセットを開くことができます。また、データセットの削除や置換を行うこともできます。

現在選択されているデータセットが **[データ]** ペインの上部に表示されます。これは、現在選択されているビジュアルで使用されているデータセットです。データセットは、ビジュアルごとに 1 つしか使用できません。別のビジュアルを選択すると、選択されているデータセットが、そのビジュアルで使用されているデータセットに変更されます。

選択されているデータセットを手動で変更するには、**[データ]** ペインの上部にあるデータセットリストを選択してから、別のデータセットを選択します。現在選択されているビジュアルがこのデータセットを使用しない場合、このビジュアルの選択が解除されます。次に、選択したデータセットを使用するビジュアルを選択します。または、**[ビジュアル]** ペインで **[追加]** を選択して、選択したデータセットを使用して新しいビジュアルを作成します。

ビジュアルの候補を表示するためにツールバーの **[Suggested]**] (推奨)を選択すると、現在選択されているデータセットに基づくビジュアルが表示されます。

[**Filter**] (フィルター) ペインに表示されるのは、現在選択されているデータセットに対するフィルターのみです。また、フィルターは現在選択されているデータセットに対してのみ作成できます。

**Topics**
+ [データセットの置き換え](replacing-data-sets.md)
+ [分析からデータセットを削除する](delete-a-data-set-from-an-analysis.md)

以下の手順を実行して、分析にデータセットを追加したり、分析で使用されているデータセットを編集したりします。

**分析にデータセットを追加するには**

1. 分析ページで、**[データ]** ペインに移動し、**[データセット]** ドロップダウンを展開します。

1. **[新しいデータセットの追加]** をクリックして、データセットを追加します。または、**[データセットを管理]** を選択してデータセットを編集します。データセットの編集に関する詳細については、「[データセットの編集](edit-a-data-set.md)」を参照してください。

1. データセットのリストが表示されます。データセットを選択して、**[Select]** (選択) をクリックします。キャンセルするには、**[Cancel]** (キャンセル) をクリックします。

# データセットの置き換え
<a name="replacing-data-sets"></a>

分析では、データセットを追加、編集、置換、または削除できます。このセクションでは、データセットを置き換える方法について説明します。

データセットを置き換えるとき、ビジュアルを設計どおりに動作させるには、元の列を新しいデータセットに反映させる必要があります。データセットを置き換えると、分析の [undo (元に戻す)] や [redo (やり直す)] の履歴も消去されます。つまり、アプリケーションバーの [undo (元に戻す)] ボタンや [redo (やり直す)] ボタンを使用して変更間を移動できません。したがって、データセットを変更すると決めたら、分析の設計を、編集中の状態ではなく比較的安定した状態にすることが必要になります。

**データセットを置き換えるには**

1. 分析ページで、**[データ]** ペインに移動し、**[データセット]** ドロップダウンを展開します。

1. **[データセットを管理]** を選択します。

1. 置換するファイルの横にある省略記号 ([...]) をクリックし、**[置換]** を選択します。

1. [**Select replacement dataset (置き換えるデータセット)**] のページで、リストからデータセットを選択し、[**Select (選択)**] を選びます。
**注記**  
データセットを置き換えると、この分析の [undo] (元に戻す) と [redo] (やり直す) の履歴が消去されます。

データセットは新しいものに置き換えられます。フィールドリストとビジュアルは新しいデータセットで更新されます。

この時点で、新しいデータセットの追加、新しいデータセットの編集、または別のデータセットへの置換を選択できます。[**Close (閉じる)**] を選択して終了します。

## 新しいデータセットが一致しない場合
<a name="replacing-data-sets-2"></a>

場合によっては、選択した置換用データセットに、分析のビジュアル、フィルター、パラメータ、および計算フィールドで使用されているすべてのフィールドと階層が含まれていないことがあります。その場合、Quick Sight から、不一致または欠落している列のリストを示す警告が表示されます。

このような場合は、2 つのデータセット間のフィールドマッピングを更新できます。

**フィールドマッピングを更新するには**

1. [**Mismatch in replacement dataset (データセット置換のミスマッチ)**] のページで [**Update field mapping (フィールドマッピングの更新)**] を選択します。

1. [**Update field mapping (フィールドマッピングの更新)**] ページで、マッピングするフィールドのドロップダウンメニューを選択し、マッピング先のフィールドをリストから選択します。

   新しいデータセットにフィールドが欠落している場合、[**Ignore this field (このフィールドを無視)**] を選択します。

1. [**Confirm (確認)**] を選択して更新を確認します。

1. [**Close (閉じる)**] を選択してページを閉じ、分析に戻ります。

データセットは新しいものに置き換えられます。フィールドリストとビジュアルは新しいデータセットで更新されます。

新しいデータセットにないフィールドを使用していたビジュアルは、空白に更新されます。ビジュアルにフィールドを再追加したり、分析からビジュアルを削除したりできます。

データセットを置き換えた後でも、変更したい場合は元に戻すことができます。例えば、データセットを置き換えた後で、新しいデータセットに合わせて分析を変更することが困難であるとわかったとします。分析に加えた変更はすべて元に戻すことができます。その後、新しいデータセットを元のものに置き換えるか、分析の要件によりよく一致するデータセットに置き換えることができます。

# 分析からデータセットを削除する
<a name="delete-a-data-set-from-an-analysis"></a>

以下の手順に従って、分析からデータセットを削除します。

**分析からデータセットを削除する**

1. 分析ページで、**[データ]** ペインに移動し、**[データセット]** ドロップダウンを展開します。

1. **[データセットを管理]** を選択します。

1. 削除するファイルの横にある省略記号 ([...]) をクリックし、**[削除]** を選択します。分析のデータセットが 1 つのみである場合、これを削除することはできません。

1. **[Close]** (閉じる) を選択してダイアログボックスを閉じます。

# Amazon Quick Sight でのデータソースの使用
<a name="working-with-data-sources"></a>

外部のデータストアにアクセスするときはデータソースを使用します。Amazon S3 のデータソースは、マニフェストファイルの情報を保存しています。これに対して、Salesforce およびデータベースデータソースは、認証情報などの接続情報を保存します。このような場合、情報を再入力しなくても、データストアから複数のデータセットを簡単に作成できます。接続情報は、テキストファイルや Microsoft Excel ファイルには保存されません。

**Topics**
+ [データソースの作成](create-a-data-source.md)
+ [データソースの編集](edit-a-data-source.md)
+ [データソースの削除](delete-a-data-source.md)

# データソースの作成
<a name="create-a-data-source"></a>


|  | 
| --- |
|    対象者:  Amazon Quick 作成者  | 

Amazon Quick の分析作成者は、データへの接続に使用するインフラストラクチャについて何も理解する必要はありません。新しいデータソースは 1 回だけ設定します。

データソースを設定したら、クイックコンソールのタイルからデータソースにアクセスできます。これを使用して 1 つ以上のデータセットを作成できます。データセットを設定すると、対応するタイルからそのデータセットにアクセスすることもできます。技術的な詳細を抽象化することで、Amazon Quick Sight はデータ接続を簡素化します。

**注記**  
アップロード予定のファイルの接続設定を手動で保存する必要はありません。ファイルのアップロードの詳細については、「[データセットの作成](creating-data-sets.md)」を参照してください。

Amazon Quick に新しいデータソース接続プロファイルを追加する前に、まずデータソースに接続するために必要な情報を収集します。場合によっては、ファイルから設定をコピーして貼り付けることもできます。その場合、書式設定文字 (箇条書き記号や番号) または空白文字 (スペースやタブ) がファイルに含まれていないことを確認します。また、ASCII 以外の文字、null (ASCII 0)、制御文字など、テキスト以外の「gremlin」文字がファイルに含まれていないことを確認してください。

次のリストは、最も一般的に使用される設定を収集するための情報を示しています。
+ 接続先のデータソース。

  レポートに必要な接続先のソースを知っていることを確認します。このソースは、データの保存、処理、またはアクセスを提供するソースとは異なる場合があります。

  例えば、大企業の新しいアナリストの場合を考えます。発注システムのデータを分析するとします。このシステムでは Oracle を使用しています。ただし、オンライントランザクション処理 (OLTP) データを直接クエリすることはできません。データのサブセットは抽出されて Amazon S3 のバケットに保存されますが、このバケットへのアクセス権もありません。新しい同僚は、 AWS Glue クローラを使用してファイルを読み取って AWS Lake Formation アクセスすることを説明します。さらに詳しく調べると、Amazon Quick Sight のデータソースとして Amazon Athena クエリを使用する必要があることがわかります。ここでのポイントは、どの種類のデータソースを選択するかは必ずしも明確ではないということです。
+ 新しいデータソースタイルのわかりやすい名前。

  新しいデータソース接続ごとに一意のわかりやすい名前が必要です。この名前は、**データセットの作成**画面の下部にある既存のデータソースの Amazon Quick Sight リストに表示されます。他の類似するデータソースから区別しやすい名前を使用します。新しい Amazon Quick Sight データソースプロファイルには、データベースソフトウェアのロゴと、割り当てたカスタム名の両方が表示されます。
+ 接続先のサーバーまたはインスタンスの名前。

  一意の名前またはその他の識別子により、ネットワークのデータソースのサーバーコネクタを識別します。記述子は、接続先に応じて異なりますが、通常は次の 1 つ以上です。
  + ホスト名
  + IP アドレス
  + クラスター ID
  + インスタンス ID
  + コネクタ
  + サイトベースの URL
+ 使用するデータのコレクションの名前。

  記述子は、データソースに応じて異なりますが、通常は次のいずれかです。
  + データベース
  + ウェアハウス
  + S3 バケット
  + カタログ
  + スキーマ

  場合によっては、マニフェストファイルまたはクエリを含める必要があります。
+ Amazon Quick Sight で使用するユーザー名。

  Amazon Quick Sight はこのデータソースプロファイル (タイル) を使用して接続するたびに、接続設定のユーザー名を使用します。場合によっては、個人のログインを使用することもあります。ただし、これを他のユーザーと共有する場合は、Amazon Quick Sight 接続に使用する認証情報の作成についてシステム管理者に問い合わせてください。
+ 使用する接続のタイプ。パブリックネットワークまたは VPC 接続を選択できます。複数の VPC 接続を利用できる場合、どの接続を使用してデータソースにアクセスするかを決めます。
+ 一部のデータソースでは、Secure Sockets Layer (SSL) や API トークンなどの追加設定が必要です。

接続設定をデータソースプロファイルとして保存したら、そのタイルを選択してデータセットを作成できます。接続は、データソース接続プロファイルとして Amazon Quick Sight に保存されます。

既存の接続プロファイルを表示するには、クイックスタートページを開き、**データ**を選択し、**作成**を選択し、**新しいデータセット**を選択します。

サポートされているデータソース接続のリストと例については、「[統合とデータセットを使用してデータに接続する](connecting-to-data-examples.md)」を参照してください。

Quick Sight でデータソースを作成したら、接続されたデータソースからのデータを含むデータセットを Quick Sight で[作成](https://docs.aws.amazon.com/quicksuite/latest/userguide/creating-data-sets)できます。また、[データソース接続の更新](https://docs.aws.amazon.com/quicksuite/latest/userguide/edit-a-data-source)情報はいつでも更新できます。

# データソースの編集
<a name="edit-a-data-source"></a>

既存のデータベースデータソースを編集して、接続情報 (サーバー名、ユーザー認証情報など) を更新できます。既存の Amazon Athena データソースを編集してデータソース名を更新することもできます。Amazon S3 または Salesforce のデータソースは編集できません。

## データベースデータソースの編集
<a name="edit-a-database-data-source"></a>

以下の手順に従って、データベースデータソースを編集します。

1. クイックスタートページから、左側の**データ**を選択します。**Create** を選択し、**New データセット**を選択します。

1. データベースデータソースを選択します。

1. [**Edit Data Source**] を選択します。

1. データソースの情報を変更します。
   + 自動検出されたデータベースデータソースを編集する場合は、以下の設定を変更できます。
     + [**Data source name (データソース名)**] に、データソースの名前を入力します。
     + [**Instance ID (インスタンス ID)**] に、表示されるリストから接続先のインスタンスまたはクラスターの名前を選択します。
     + [**Database name (データベース名)**] には、[**Instance ID (インスタンス ID)**] のクラスターまたはインスタンスのデフォルトデータベースが表示されています。そのクラスターまたはインスタンスの別のデータベースを使用する場合は、その名前を入力します。
     + **[UserName]** で、次を実行するための許可を持つユーザーアカウントのユーザー名を入力します。
       + ターゲットデータベースにアクセスします。
       + 使用するデータベース内の（`SELECT` ステートメントを実行する）テーブルを読み取ります。
     + **[パスワード]** で、入力したユーザーアカウントのパスワードを入力します。
   + 外部のデータベースデータソースを編集する場合は、以下の設定を変更できます。
     + [**Data source name (データソース名)**] に、データソースの名前を入力します。
     + [**Database server (データベースサーバー)**] で、次のいずれかの値を入力します。
       + Amazon Redshift クラスターの場合は、クラスターのエンドポイントを、ポート番号を付けずに入力します。たとえば、エンドポイントの値が「`clustername.1234abcd.us-west-2.redshift.amazonaws.com:1234`」である場合は、「`clustername.1234abcd.us-west-2.redshift.amazonaws.com`」と入力します。エンドポイント値は、Amazon Redshift コンソールのクラスター詳細ページの **[Endpoint]** (エンドポイント) フィールドから取得できます。
       + PostgreSQL、MySQL、または SQL Server の Amazon EC2 インスタンスの場合は、パブリック DNS アドレスを入力します。パブリック DNS 値は、EC2 コンソールでインスタンス詳細ペインの [**Public DNS (パブリック DNS)**] フィールドから取得できます。
       + PostgreSQL、MySQL、または SQL Server の Amazon EC2 以外のインスタンスの場合は、データベースサーバーのホスト名またはパブリック IP アドレスを入力します。
     + [**Port (ポート)**] に、クラスターまたはインスタンスで接続に使用されているポート番号を入力します。
     + [**Database name (データベース名)**] に、使用するデータベースの名前を入力します。
     + **[UserName]** で、次を実行するための許可を持つユーザーアカウントのユーザー名を入力します。
       + ターゲットデータベースにアクセスします。
       + 使用するデータベース内の（`SELECT` ステートメントを実行する）テーブルを読み取ります。
     + **[パスワード]** で、入力したユーザーアカウントのパスワードを入力します。

1. [**Validate connection (接続を検証)**] を選択します。

1. 接続が検証された場合は、[**Update data source**] を選択します。検証されなかった場合は、接続情報を修正してから、検証をもう一度試します。

1. 更新されたデータソースを使用して新しいデータセットを作成する場合は、[データベースからのデータセットの作成](create-a-database-data-set.md) の手順で作業を進めます。それ以外の場合は、[**Choose your table (テーブルの選択)**] ダイアログボックスを閉じます。

## Athena データソースの編集
<a name="revoking-access-to-shared-data-sources"></a>

Athena データソースを編集するには、次の手順に従います。

1. クイックスタートページから、左側の**データ**を選択します。**「作成**」を選択し、**「新規データセット**」を選択します。

1. Athena データソースを選択します。

1. [**Edit Data Source**] を選択します。

1. [**Data source name (データソース名)**] に新しい名前を入力します。

1. [**Manage data source sharing (データソース共有の管理)**] 画面が表示されます。[**Users (ユーザー)**] タブで、削除するユーザーを見つけます。

1. 更新されたデータソースを使用して新しいデータセットを作成する場合は、[Amazon Athena データを使用したデータセットの作成](create-a-data-set-athena.md) の手順で作業を進めます。それ以外の場合は、[**Choose your table (テーブルの選択)**] ダイアログボックスを閉じます。

# データソースの削除
<a name="delete-a-data-source"></a>

不要になったデータソースは削除できます。クエリベースのデータベースデータソースを削除すると、関連付けられているすべてのデータセットが使用できなくなります。Amazon S3、Salesforce、または SPICE ベースのデータベースのデータソースを削除しても、関連付けられているデータセットの使用には影響ありません。これは、データが [SPICE](spice.md) に保存されているためです。ただし、それらのデータセットの更新はできなくなります。

**データソースを削除するには**

1. 削除するデータソースを選択します。

1. **[Delete]** (削除) をクリックします。