

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 将 SAP BDC 中的数据与 AWS 数据源集成
<a name="rise-jra-datatovalue-bdc-aws"></a>

通过带有 SAP BDC 的 SAP Datasphere 数据结构架构，可以将来自 AWS 数据源的非 SAP 数据与 SAP 数据进行协调。集成架构支持多种 AWS 服务，每种服务都有基于实时数据或复制的特定集成模式：

![\[带托管服务的 SAP BDC\]](http://docs.aws.amazon.com/zh_cn/sap/latest/general/images/rise-jra-datatovalue-01.png)


 **A. 与 Amazon Athena 的集成** 

集成模式：将数据实时联合至 SAP Datasphere

Amazon Athena 是 Amazon 推出的交互式查询服务，可帮助查询和分析 S3 中的数据。来自 Athena 的非 SAP 数据能够实时联合至 SAP Datasphere 的远程表中，并与 SAP 数据相结合，以便在 [SAP Analytics Cloud](https://www.sap.com/products/data-cloud/cloud-analytics.html) 中进行实时分析。

以下是将 Athena 与 SAP Datasphere 集成的步骤：

1. 准备包含非 SAP 数据和第三方数据的来源

1. 配置 Athena

1. 配置必要的 IAM 用户和授权

1. 设置 SAP Datasphere 与 Athena 的连接

1. 在 SAP Datasphere 中构建模型

通过此流程，可以进行实时数据联合而无需复制数据，从而降低成本、快速提供见解，并实现企业级安全。有关详细的分步说明，请访问 [Federating Queries from SAP Datasphere to Amazon S3 via Amazon Athena](https://github.com/SAP-samples/sap-bdc-explore-hyperscaler-data/blob/main/AWS/athena-integration.md)。

 **B. 与 Amazon Redshift 的集成** 

集成模式：将数据实时联合至 SAP Datasphere

Amazon Redshift 是一项完全托管的 PB 级数据仓库服务，已针对分析工作负载进行优化。通过 SAP Datasphere 的数据联合架构，可将 Redshift 数据与 SAP 数据相结合，以在 SAP Analytics Cloud 中构建统一的数据模型和分析。[智能数据集成（SDI）](https://help.sap.com/docs/HANA_SMART_DATA_INTEGRATION/bf2f0282053648f8a1ef873e65ded81a/323ff4c3c12040bab8f1222a901dd95d.html)通过 [Camel JDBC 适配器](https://help.sap.com/docs/HANA_SMART_DATA_INTEGRATION/7952ef28a6914997abc01745fef1b607/598cdd48941a41128751892fe68393f4.html?locale=en-US)连接 SAP Datasphere 与 Redshift，从而支持创建虚拟表以及实时复制或快照复制。

以下是将 Redshift 与 SAP Datasphere 集成的步骤：

1. 在 SAP Datasphere 中创建本地代理

1. 设置 Redshift 访问权限

1. 配置 SAP SDI DP 代理

1. 在 SAP Datasphere 中注册 Camel JDBC 适配器

1. 在 SAP Datasphere 中上传第三方驱动程序

1. 在 SAP Datasphere 中创建与 Redshift 的本地连接

1. 从 Redshift 导入远程表

此设置支持从 SAP Datasphere 向 Redshift 发起实时联合查询，而无需复制数据。优势包括实时访问 Redshift 数据、通过下推查询优化性能，以及避免 SAP Datasphere 中出现数据重复情况。有关详细的分步说明，请访问 [Data Federation between SAP Datasphere and Amazon Redshift](https://github.com/SAP-samples/sap-bdc-explore-hyperscaler-data/blob/main/AWS/redshift-integration.md)。

 **C. 与 Amazon S3 的集成** 

集成模式：使用复制流复制数据，使用数据流将数据导入 SAP Datasphere

Amazon S3 提供高度可扩展、持久、可用和安全的对象存储服务。S3 存储桶中的非 SAP 数据可通过数据流功能导入 SAP Datasphere，供 SAP Analytics Cloud 中的财务规划或业务分析等应用程序使用。

以下是将 Amazon S3 与 SAP Datasphere 集成的步骤：

1. 在 S3 存储桶中准备源数据

1. 配置必要的 IAM 用户和授权

1. 在 SAP Datasphere 中创建 S3 连接

1. 创建数据流

通过此流程，SAP Datasphere 可连接到 S3、访问非 SAP 数据，并借助数据流将这些数据与内部 SAP 数据集结合使用。有关详细的分步说明，请访问 [Data integration between SAP Datasphere and in Amazon S3](https://github.com/SAP-samples/sap-bdc-explore-hyperscaler-data/blob/main/AWS/s3-integration.md)。

你可以在 SAP 架构中心的 “[与 AWS 数据源集成](https://architecture.learning.sap.com/docs/ref-arch/a07a316077/1)” 下找到更多信息。