

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 連線至資料來源
<a name="canvas-connecting-external"></a>

在 Amazon SageMaker Canvas 中，您可以透過 AWS 服務、SaaS 平台或其他使用 JDBC 連接器的資料庫，從本機檔案系統外部的位置匯入資料。例如您可能想要從 Amazon Redshift 中的資料倉儲匯入資料表，或者您可能想要匯入 Google Analytics (分析) 資料。

當您在 Canvas 應用程式中執行**匯入**工作流程來 匯入資料時，您可以選擇資料來源，然後選取要匯入的資料。針對某些資料來源，例如 Snowflake 和 Amazon Redshift，您必須指定憑證並新增至資料來源的連線。

下列螢幕擷取畫面顯示**匯入**工作流程中的資料來源工具列，並重點標示所有可用的資料來源。您只能從可用的資料來源匯入資料。如果您想要的資料來源無法使用，請聯絡您的管理員。

![\[在 Canvas 匯入資料頁面上，開啟 資料來源下拉式清單。\]](http://docs.aws.amazon.com/zh_tw/sagemaker/latest/dg/images/studio/canvas/data-sources.png)


以下各節提供有關建立與外部資料來源的連線以及從外部資料來源匯入資料的資訊。請先檢閱下一節，以確定從資料來源匯入資料所需的許可。

## 許可
<a name="canvas-connecting-external-permissions"></a>

請檢閱下列資訊，以確保您具有從資料來源匯入資料的必要許可：
+ **Amazon S3：**只要您的使用者有存取儲存貯體的許可，就可以從任何 Amazon S3 儲存貯體匯入資料。如需使用 AWS IAM 控制 Amazon S3 儲存貯體存取的詳細資訊，請參閱《[Amazon S3 使用者指南》中的 Amazon S3 中的身分和存取管理](https://docs.aws.amazon.com/AmazonS3/latest/userguide/s3-access-control.html)。 *Amazon S3 *
+ **Amazon Athena：**如果您將 [AmazonSageMakerFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerFullAccess.html) 政策和 [AmazonSageMakerCanvasFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerCanvasFullAccess.html) 政策連接到使用者的執行角色，則可以 AWS Glue Data Catalog 使用 Amazon Athena 查詢您的 。如果您是 Athena 工作群組的一員，請確定 Canvas 使用者擁有對資料執行 Athena 查詢的許可。如需更多資訊，請參閱 *Amazon Athena 使用者指南*中的[使用工作群組來執行查詢](https://docs.aws.amazon.com/athena/latest/ug/workgroups.html)。
+ **Amazon DocumentDB：**只要您有憑證 (使用者名稱和密碼) 來連線至資料庫，且具有連接到使用者執行角色的最低基本 Canvas 許可，就可以從任何 Amazon DocumentDB 資料庫匯入資料。如需 Canvas 許可的詳細資訊，請參閱[設定 Amazon SageMaker Canvas 的先決條件](canvas-getting-started.md#canvas-prerequisites)。
+ **Amazon Redshift：**若要授予從 Amazon Redshift 匯入資料的必要許可給自己，請參閱[授予使用者匯入 Amazon Redshift 資料的許可](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas-redshift-permissions.html)。
+ **Amazon RDS：**如果您將 [AmazonSageMakerCanvasFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerCanvasFullAccess.html) 政策連接到使用者的執行角色，那麼您就可以從 Canvas 存取您的 Amazon RDS 資料庫。
+ **SaaS 平台：**如果您有 [AmazonSageMakerFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerFullAccess.html) 政策和 [AmazonSageMakerCanvasFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerCanvasFullAccess.html) 政策連接至使用者的執行角色，則您將具有從 SaaS 平台匯入資料的必要許可。如需連接至特定 SaaS 連接器的更多相關資訊，請參閱[搭配 Canvas 使用 SaaS 連接器](#canvas-connecting-external-appflow)。
+ **JDBC 連接器：**對於資料庫來源 (例如 Databricks、MySQL 或 MariaDB)，您必須在來源資料庫上啟用使用者名稱和密碼驗證，然後再嘗試從 Canvas 連線。如果您要連線到 Databricks 則必須擁有包含必要憑證的 JDBC URL。

## 連線至存放在 中的資料庫 AWS
<a name="canvas-connecting-internal-database"></a>

您可能想要匯入已存放的資料 AWS。您可以從 Amazon S3 匯入資料、使用 Amazon Athena 查詢 中的資料庫 AWS Glue Data Catalog、從 [Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Welcome.html) 匯入資料，或連線到佈建的 Amazon Redshift 資料庫 （而非 Redshift Serverless)。

您可以建立 Amazon Redshift 的多個連線。針對 Amazon Athena，您可以存取在 [AWS Glue Data Catalog](https://docs.aws.amazon.com/prescriptive-guidance/latest/serverless-etl-aws-glue/aws-glue-data-catalog.html) 上擁有的任何資料庫。針對 Amazon S3，只要您擁有必要的許可，就可以從儲存貯體匯入資料。

如需詳細資訊，請檢閱下列各節。

### 連線到 Amazon S3、Amazon Athena 或 Amazon RDS 中的資料
<a name="canvas-connecting-internal-database-s3-athena"></a>

針對 Amazon S3，只要您擁有存取儲存貯體的許可，就可以從 Amazon S3 儲存貯體匯入資料。

對於 Amazon Athena， AWS Glue Data Catalog 只要您擁有透過 [Amazon Athena 工作群組](https://docs.aws.amazon.com/athena/latest/ug/manage-queries-control-costs-with-workgroups.html)的許可，就可以存取 中的資料庫。

針對 Amazon RDS，如果您已將 [AmazonSageMakerCanvasFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerCanvasFullAccess.html) 政策連接到您的使用者角色，那麼您就可以將資料從 Amazon RDS 資料庫匯入 Canvas。

若要從 Amazon S3 儲存貯體匯入資料，或使用 Amazon Athena 執行查詢和匯入資料表，請參閱[建立資料集](canvas-import-dataset.md)。您只能從 Amazon Athena 匯入表格式資料，而且可以從 Amazon S3 匯入表格式和影像資料。

### 連線至 Amazon DocumentDB 資料庫
<a name="canvas-connecting-docdb"></a>

Amazon DocumentDB 是一種全受管、無伺服器的文件資料庫服務。您可以將存放在 Amazon DocumentDB 資料庫中的非結構化文件資料匯入至 SageMaker Canvas，做為表格式資料集，然後使用資料建置機器學習模型。

**重要**  
您的 SageMaker AI 網域必須在**僅限 VPC** 模式下設定，才能新增與 Amazon DocumentDB 的連線。您只能在與 Canvas 應用程式相同的 Amazon VPC 中存取 Amazon DocumentDB 叢集。此外，Canvas 只能連線到已啟用 TLS 的 Amazon DocumentDB 叢集。如需如何在**僅限 VPC** 模式下設定 Canvas 的詳細資訊，請參閱[在沒有網際網路存取權的 VPC 中設定 Amazon SageMaker Canvas](canvas-vpc.md)。

若要從 Amazon DocumentDB 資料庫匯入資料，您必須具有憑證才能存取 Amazon DocumentDB 資料庫，並在建立資料庫連線時指定使用者名稱和密碼。您可以透過修改 Amazon DocumentDB 使用者許可來設定更精細的許可並限制存取。若要進一步了解 Amazon DocumentDB 中的存取控制，請參閱《Amazon DocumentDB 開發人員指南》**中的[使用角色型存取控制進行資料庫存取](https://docs.aws.amazon.com/documentdb/latest/developerguide/role_based_access_control.html)。

當您從 Amazon DocumentDB 匯入時，Canvas 會透過將欄位對應至資料表中的資料欄，將您的非結構化資料轉換為表格式資料集。系統會為資料中的每個複雜欄位 (或巢狀結構) 建立其他資料表，其中資料欄對應至複雜欄位的子欄位。如需此程序的詳細資訊和結構描述轉換範例，請參閱 [Amazon DocumentDB JDBC 驅動器結構描述探索](https://github.com/aws/amazon-documentdb-jdbc-driver/blob/develop/src/markdown/schema/schema-discovery.md) GitHub 頁面。

Canvas 只能連線到 Amazon DocumentDB 中的單一資料庫。若要從不同的資料庫匯入資料，您必須建立新的連線。

您可以使用下列方法，將資料從 Amazon DocumentDB 匯入至 Canvas：
+ [建立資料集](canvas-import-dataset.md)。您可以匯入 Amazon DocumentDB 資料，並在 Canvas 中建立表格式資料集。如果您選擇此方法，請務必遵循[匯入表格式資料](https://docs.aws.amazon.com/sagemaker/latest/dg/canvas-import-dataset.html#canvas-import-dataset-tabular)程序。
+ [建立資料流程](canvas-data-flow.md)。您可以在 Canvas 中建立資料準備管道，並將 Amazon DocumentDB 資料庫新增為資料來源。

若要繼續匯入您的資料，請遵循上述清單中連結的其中一個方法的程序。

當您到達任一工作流程中的步驟以選擇資料來源 (步驟 6 用於建立資料集，或步驟 8 用於建立資料流程) 時，請執行下列動作：

1. 對於**資料來源**，開啟下拉式功能表並選擇 **DocumentDB**。

1. 選擇 **Add Connection** (新增連線)。

1. 在對話方塊中，指定您的 Amazon DocumentDB 憑證：

   1. 輸入**連線名稱**。這是 Canvas 用來識別此連線的名稱。

   1. 針對**叢集**，選取 Amazon DocumentDB 中存放資料的叢集。Canvas 會自動將與 Canvas 應用程式位於相同 VPC 的 Amazon DocumentDB 叢集填入下拉式功能表。

   1. 輸入 Amazon DocumentDB 叢集的**使用者名稱**。

   1. 輸入 Amazon DocumentDB 叢集的**密碼**。

   1. 輸入您要連線至其中的**資料庫**名稱。

   1. **讀取喜好設定**選項決定 Canvas 從叢集上哪些類型的執行個體中讀取資料。選擇下列其中之一：
      + **次要優先** - Canvas 預設為從叢集的次要執行個體讀取，但如果次要執行個體無法使用，則 Canvas 會從主要執行個體讀取。
      + **次要** - Canvas 只會從叢集的次要執行個體讀取，這可防止讀取操作干擾叢集的一般讀取和寫入操作。

   1. 選擇 **Add Connection** (新增連線)。下圖顯示對話方塊，其中包含 Amazon DocumentDB 連線的上述欄位。  
![\[Canvas 中新增 DocumentDB 連線對話方塊的螢幕擷取畫面。\]](http://docs.aws.amazon.com/zh_tw/sagemaker/latest/dg/images/studio/canvas/add-docdb-connection.png)

您現在應有 Amazon DocumentDB 連線，而且可在 Canvas 中使用您的 Amazon DocumentDB 資料來建立資料集或資料流程。

### 連線至 Amazon Redshift 資料庫
<a name="canvas-connecting-redshift"></a>

您可以從 Amazon Redshift 匯入資料，這是您的組織儲存資料的資料倉儲。您必須先連接 AWS `AmazonRedshiftFullAccess`受管政策，才能使用 Amazon Redshift 匯入資料。如需有關如何連接政策的指示，請參閱[授予使用者匯入 Amazon Redshift 資料的許可](canvas-redshift-permissions.md)。

若要從 Amazon Redshift 匯入資料，請執行以下操作：

1. 建立與 Amazon Redshift 資料庫的連線。

1. 選擇您要匯入的資料。

1. 匯入資料。

您可以使用 Amazon Redshift 編輯器將資料集拖曳到匯入窗格，然後將其匯入 SageMaker Canvas。如需對資料集傳回的值進一步控制，您可以使用下列各項：
+ SQL 查詢
+ 聯結

使用 SQL 查詢，您可以自訂資料集中值的匯入方式。例如，您可以指定資料集中傳回的資料欄，或指定資料欄的值範圍。

您可以使用聯結將 Amazon Redshift 中的多個資料集合併為單一資料集。您可以將資料集從 Amazon Redshift 拖曳到面板中，讓您能夠聯結資料集。

您可以使用 SQL 編輯器編輯已加入的資料集，並將聯結的資料集轉換為單一節點。您可以將另一個資料集聯結至節點。您可以將已選取的資料匯入到 SageMaker Canvas 中。

使用下列程序從 Amazon Redshift 匯入資料。

1. 在 SageMaker Canvas 應用程式中，前往**資料集**頁面。

1. 選擇**匯入資料**，然後從下拉式清單中選擇**表格式**。

1. 輸入資料集的名稱，然後選擇**建立**。

1. 對於**資料來源**，開啟下拉式功能表並選擇 **Redshift**。

1. 選擇 **Add Connection** (新增連線)。

1. 在對話方塊中，指定您的 Amazon Redshift 憑證：

   1. 針對**驗證方法**，請選擇 **IAM**。

   1. 輸入**叢集識別碼**，以指定要連線的叢集。只輸入叢集識別碼，而不要輸入 Amazon Redshift 叢集的完整端點。

   1. 輸入您要連接的資料庫之**資料庫名稱**。

   1. 輸入**資料庫使用者**，以識別您要用來連線至資料庫的使用者。

   1. 針對 **ARN**，請輸入 Amazon Redshift 叢集應該假定將資料移動和寫入至 Amazon S3 的角色的 IAM 角色 ARN。如需此角色的詳細資訊，請參閱《[Amazon Redshift 管理指南》中的授權 Amazon Redshift 代表您存取其他 AWS 服務](https://docs.aws.amazon.com/redshift/latest/mgmt/authorizing-redshift-service.html)。 **

   1. 輸入**連線名稱**。這是 Canvas 用來識別此連線的名稱。

1. 從具有連線名稱的索引標籤中，將要匯入的 .csv 檔案**拖曳至拖放資料表來匯入**窗格。

1. 選用：將其他資料表拖曳至匯入窗格。您可以使用 GUI 來聯結資料表。如需聯結中的具體細節，請選擇**在 SQL 中編輯**。

1. 選用：如果您使用 SQL 來查詢資料，您可以選擇**內容**來指定下列項目的值，將內容新增至連線：
   + **倉儲**
   + **資料庫**
   + **結構描述**

1. 選擇**匯入資料**。

下列影像顯示針對 Amazon Redshift 連線指定的欄位範例。

![\[Canvas 中新增 Redshift 連線對話方塊的螢幕擷取畫面。\]](http://docs.aws.amazon.com/zh_tw/sagemaker/latest/dg/images/studio/canvas/canvas-redshift-add-connection.png)


下列影像顯示了在 Amazon Redshift 中聯結資料集時使用的頁面。

![\[Canvas 中匯入頁面的螢幕擷取畫面，顯示兩個正在聯結的資料集。\]](http://docs.aws.amazon.com/zh_tw/sagemaker/latest/dg/images/studio/canvas/canvas-redshift-join.png)


下列影像顯示了用於在 Amazon Redshift 中編輯聯結的 SQL 查詢。

![\[在 Canvas 的匯入頁面上，編輯 SQL 編輯器中 SQL 查詢的螢幕擷取畫面。\]](http://docs.aws.amazon.com/zh_tw/sagemaker/latest/dg/images/studio/canvas/canvas-redshift-edit-sql.png)


## 使用 JDBC 連接器連接至您的資料
<a name="canvas-connecting-jdbc"></a>

您可以使用 JDBC 從諸如 Databricks、SQLServer、MySQL、PostgreSQL、MariaDB、Amazon RDS 和 Amazon Aurora 等來源連接到資料庫。

您必須確定您擁有必要的憑證和許可，才能從 Canvas 建立連線。
+ 針對 Databricks，您必須提供 JDBC URL。URL 格式可能會因 Databricks 執行個體而有所不同。如需尋找 URL 及其中指定參數的詳細資訊，請參閱 Databricks 說明文件中的 [JDBC 組態和連線參數](https://docs.databricks.com/integrations/bi/jdbc-odbc-bi.html#jdbc-configuration-and-connection-parameters)。以下是 URL 格式的範例：`jdbc:spark://aws-sagemaker-datawrangler.cloud.databricks.com:443/default;transportMode=http;ssl=1;httpPath=sql/protocolv1/o/3122619508517275/0909-200301-cut318;AuthMech=3;UID=token;PWD=personal-access-token`
+ 對於其他資料庫來源，您必須設定使用者名稱和密碼驗證，然後在從 Canvas 連線至資料庫時指定這些認證。

此外，您的資料來源必須可透過公用網際網路存取，或者如果 Canvas 應用程式在**僅限 VPC** 模式下執行，則資料來源必須在相同的 VPC 中執行。如需在 VPC 中設定 Amazon RDS 資料庫的詳細資訊，請參閱 *Amazon RDS 使用者指南*中的 [Amazon VPC VPCs 和 Amazon RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_VPC.html)。

設定資料來源認證後，您可以登入 Canvas 應用程式並建立與資料來源的連線。建立連線時，請指定您的認證 (或對於資料庫而言，URL)。

## 使用 OAuth Connect 至資料來源
<a name="canvas-connecting-oauth"></a>

Canvas 支援使用 OAuth 做為驗證方法，以連線至 Snowflake 和 Salesforce Data Cloud 中的資料。[OAuth](https://oauth.net/2/) 是一種通用的驗證平台，用於在不共享密碼的情況下授予資源存取權。

**注意**  
您只能為每個資料來源建立一個 OAuth 連線。

若要授權連線，您必須遵循[使用 OAuth 設定與資料來源的連線](canvas-setting-up-oauth.md)中所述的初始設定。

設定 OAuth 認證之後，您可以執行下列動作使用 OAuth 新增 Snowflake 或 Salesforce Data Cloud 連線：

1. 登入 Web 應用程式。

1. 建立表格式資料集。當系統提示您上傳資料時，請選擇 Snowflake 或 Salesforce Data Cloud 做為您的資料來源。

1. 建立與 Snowflake 或 Salesforce Data Cloud 資料來源的新連線。指定 OAuth 作為驗證方法，然後輸入您的連線詳細資料。

您現在應該可以從 Snowflake 或 Salesforce Data Cloud 中的資料庫匯入資料。

## 連接 SaaS 平台
<a name="canvas-connecting-saas"></a>

您可以從 Snowflake 和其他 40 多個外部 SaaS 平台匯入資料。如需連接器的完整清單，請參閱[資料匯入](canvas-importing-data.md)上的資料表。

**注意**  
您只能從 SaaS 平台匯入表格式資料，例如資料表。

### 搭配 Canvas 使用 Snowflake
<a name="canvas-using-snowflake"></a>

Snowflake 是一種資料儲存和分析服務，您可以將資料從 Snowflake 匯入 SageMaker Canvas。如需有關 Snowflake 的詳細資訊，請參閱 [Snowflake 文件](https://www.snowflake.com/en/)。

若要從 Snowflake 帳戶匯入資料，請執行以下動作：

1. 建立與 Snowflake 資料庫的連線。

1. 將表格從左側導覽功能表拖放到編輯器中，以選擇要匯入的資料。

1. 匯入資料。

您可以使用 Snowflake 編輯器將資料集拖曳至匯入窗格，然後將其匯入 SageMaker Canvas。如需對資料集傳回的值進一步控制，您可以使用下列各項：
+ SQL 查詢
+ 聯結

使用 SQL 查詢，您可以自訂資料集中值的匯入方式。例如，您可以指定資料集中傳回的資料欄，或指定資料欄的值範圍。

您可以在使用 SQL 或 Canvas 介面匯入 Canvas 之前，將多個 Snowflake 資料集合成單一資料集。您可以將資料集從 Snowflake 拖曳到可讓您聯結資料集的面板中，或者您也可以在 SQL 中編輯聯結，然後將 SQL 轉換為單一節點。您可以將其他節點連接到已轉換的節點。然後，您可以將已加入的資料集合成單一節點，並將這些節點加入不同的 Snowflake 資料集。最後，您可以將選擇的資料匯入到 Canvas 中。

請使用下列程序，將資料從 Snowflake 匯入 Amazon SageMaker Canvas。

1. 在 SageMaker Canvas 應用程式中，前往**資料集**頁面。

1. 選擇**匯入資料**，然後從下拉式清單中選擇**表格式**。

1. 輸入資料集的名稱，然後選擇**建立**。

1. 對於**資料來源**，開啟下拉式功能表並選擇 **Snowflake**。

1. 選擇 **Add Connection** (新增連線)。

1. 在**新增 Snowflake 連線**對話方塊中，指定您的 Snowflake 認證。針對**驗證方法**，選擇下列其中一項：
   + **基本 - 使用者名稱密碼** - 提供您的 Snowflake 帳戶 ID、使用者名稱和密碼。
   + **ARN** – 為了改善 Snowflake 登入資料的保護，請提供包含登入資料的 AWS Secrets Manager 秘密 ARN。如需詳細資訊，請參閱*AWS Secrets Manager 《 使用者指南*》中的[建立 AWS Secrets Manager 秘密](https://docs.aws.amazon.com/secretsmanager/latest/userguide/create_secret.html)。

     您的秘密應以下列 JSON 格式存放您的 Snowflake 憑證：

     ```
     {"accountid": "ID",
     "username": "username",
     "password": "password"}
     ```
   + **OAuth** - OAuth 可讓您在不提供密碼的情況下進行驗證，但需要額外的設定。如需設定分享之登入資料的詳細資訊，請參閱[使用 OAuth 設定與資料來源的連線](canvas-setting-up-oauth.md)。

1. 選擇 **Add Connection** (新增連線)。

1. 從具有連線名稱的索引標籤中，將要匯入的 .csv 檔案拖曳至**拖放資料表來匯入**窗格。

1. 選用：將其他資料表拖曳至匯入窗格。您可以使用使用者介面來連接表格。如需聯結中的具體細節，請選擇**在 SQL 中編輯**。

1. 選用：如果您使用 SQL 來查詢資料，您可以選擇**內容**來指定下列項目的值，將內容新增至連線：
   + **倉儲**
   + **資料庫**
   + **結構描述**

   將內容新增到連接可以更輕鬆地指定未來的查詢。

1. 選擇**匯入資料**。

下列影像顯示 Snowflake 連線指定的欄位範例。

![\[Canvas 中新增 Snowflake 連線對話方塊的螢幕擷取畫面。\]](http://docs.aws.amazon.com/zh_tw/sagemaker/latest/dg/images/studio/canvas/canvas-snowflake-connection.png)


下列影像顯示了用於將內容新增到連線的頁面。

![\[Canvas 中匯入頁面的螢幕擷取畫面，顯示內容對話方塊。\]](http://docs.aws.amazon.com/zh_tw/sagemaker/latest/dg/images/studio/canvas/canvas-connection-context.png)


下列影像顯示用於聯結 Snowflake 資料集的頁面。

![\[Canvas 中匯入頁面的螢幕擷取畫面，顯示正在聯結資料集。\]](http://docs.aws.amazon.com/zh_tw/sagemaker/latest/dg/images/studio/canvas/canvas-snowflake-join.png)


下列影像顯示將 SQL 查詢用於編輯 Snowflake 中的聯結。

![\[在 Canvas 的匯入頁面上，編輯 SQL 編輯器中 SQL 查詢的螢幕擷取畫面。\]](http://docs.aws.amazon.com/zh_tw/sagemaker/latest/dg/images/studio/canvas/canvas-snowflake-edit-sql.png)


### 搭配 Canvas 使用 SaaS 連接器
<a name="canvas-connecting-external-appflow"></a>

**注意**  
針對 SaaS 平台，除了 Snowflake 之外每個資料來源只能有一個連線。

您的管理員必須先驗證並建立與資料來源的連線，才能從 SaaS 平台匯入資料。如需管理員如何建立與 SaaS 平台之間的連線的更多相關資訊，請參閱 *Amazon AppFlow 使用者指南*中的[管理 Amazon AppFlow 連線](https://docs.aws.amazon.com/appflow/latest/userguide/connections.html)。

如果您是第一次開始使用 Amazon AppFlow 的管理員，請參閱 *Amazon AppFlow 使用者指南*中的[入門](https://docs.aws.amazon.com/appflow/latest/userguide/getting-started.html)。

要從 SaaS 平台匯入資料，您可以遵循標準 [匯入表格式資料](canvas-import-dataset.md#canvas-import-dataset-tabular) 程序，該程序向您展示如何將表格式資料集匯入 Canvas。