

我们不再更新 Amazon Machine Learning 服务，也不再接受新用户使用该服务。本文档可供现有用户使用，但我们不会再对其进行更新。有关更多信息，请参阅[什么是 Amazon Machine Learning](https://docs.aws.amazon.com/machine-learning/latest/dg/what-is-amazon-machine-learning.html)。

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 生成和解释预测
<a name="interpreting_predictions"></a>

Amazon ML 提供了两种生成预测的机制：异步（基于批处理）和同步（one-at-a-time）。

当您有大量观察并希望一次性获取这些观察的预测时，使用异步预测（即*批量预测*****）。此过程使用数据源作为输入，将预测输出到所选 S3 存储桶中存储的 .csv 文件。您需要等待直至批量预测过程完成，然后才能访问预测结果。Amazon ML 在一批文件中可以处理的最大数据源大小为 1TB（大约 1 亿条记录）。如果您的数据源大于 1TB，则任务将失败，Amazon ML 会返回错误代码。为防止出现这种情况，请将数据拆分成几批。如果您的记录一般会更长，则在处理 1 亿条记录之前就会达到 1 TB 的限制。在这种情况下，我们建议您联系 [AWS Support](https://aws.amazon.com/contact-us/) 以增加批量预测的任务大小。

在您希望马上获得预测时，使用同步（即*实时预测*****）。实时预测 API 接受序列化为 JSON 字符串的单个输入观察，并在 API 响应中同步返回预测和关联的元数据。您可以同时调用多个 API 以并行获取同步预测。有关实时预测 API 吞吐量限制的更多信息，请参阅 [Amazon ML API 参考](https://docs.aws.amazon.com/machine-learning/latest/APIReference/)中的实时预测限制。

**Topics**
+ [创建批量预测](creating-batch-prediction-objects.md)
+ [查看批量预测指标](working-with-batch-predictions.md)
+ [读取批量预测输出文件](reading-the-batchprediction-output-files.md)
+ [请求实时预测](requesting-real-time-predictions.md)

# 创建批量预测
<a name="creating-batch-prediction-objects"></a>

要创建批量预测，您可以使用 Amazon Machine Learning (Amazon ML) 控制台或 API 创建 `BatchPrediction` 对象。`BatchPrediction` 对象描述 Amazon ML 使用您的 ML 模型和一组输入观察生成的预测集。在您创建 `BatchPrediction` 对象时，Amazon ML 启动计算预测的同步工作流。

对于您为下面两种数据源使用的架构必须相同：获取批量预测时使用的数据源，以及在训练为预测而查询的 ML 模型时使用的数据源。其中的一个例外是，批量预测的数据源无需包括目标属性，因为 Amazon ML 预测目标。如果您提供目标属性，Amazon ML 会忽略其值。

## 创建批量预测（控制台）
<a name="batch-prediction-console"></a>

要使用 Amazon ML 控制台创建批量预测，请使用“创建批量预测”向导。

**创建批量预测（控制台）**

1. 登录 AWS 管理控制台 并打开 Amazon Machine Learning 控制台，网址为[https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/)。

1. 在 Amazon ML 控制面板上的**对象**下，选择**新建...**，然后选择**批量预测**。

1. 选择您要用于创建批量预测的 Amazon ML 模型。

1. 要确认您希望使用此模型，请选择**继续**。

1. 选择您要为其创建预测的数据源。数据源必须与您模型具有相同的架构，尽管它无需包括目标属性。

1. 选择**继续**。

1. 对于**S3 目标**，键入您 S3 存储桶的名称。

1. 选择**审核**。

1. 检查您的设置，然后选择**创建批量预测**。

## 创建批量预测 (API)
<a name="batch-prediction-api"></a>

要使用 Amazon ML API 创建 `BatchPrediction` 对象，您必须提供以下参数：

**Datasource ID**  
指向要预测的观察的数据源的 ID。例如，如果您希望预测名为 `s3://examplebucket/input.csv` 的文件中的数据，则应创建指向该数据文件的数据源对象，然后将数据源的 ID 与此参数一起传入。

**BatchPrediction ID**  
要分配到批量预测的 ID。

**ML Model ID**  
Amazon ML 应在其中查询预测的 ML 模型的 ID。

**Output Uri**  
S3 存储桶的 URI，在其中存储预测的输出。Amazon ML 必须有权将数据写入此存储桶。  
`OutputUri` 参数必须引用以正斜杠（“/”）字符结尾的 S3 路径，如下例中所示：  
s3://examplebucket/examplepath/  
有关配置 S3 权限的信息，请参阅[向 Amazon ML 授予将预测输出到 Amazon S3 的权限](granting-amazon-ml-permissions-to-output-predictions-to-amazon-s3.md)。

**（可选） BatchPrediction 名称**  
（可选）批量预测的人类可读名称。

# 查看批量预测指标
<a name="working-with-batch-predictions"></a>

Amazon Machine Learning (Amazon ML) 创建批量预测后，它会提供两个指标：`Records seen` 和 `Records failed to process`。`Records seen` 说明 Amazon ML 在运行您的批量预测时查看了多少条记录。`Records failed to process` 说明 Amazon ML 无法处理多少条记录。

要允许 Amazon ML 处理失败的记录，请检查用于创建您的数据源的数据中的记录格式，并确保所有必需的属性均已存在并且所有数据均正确。修复您的数据后，您可以重新创建批量预测，或者使用失败的记录创建一个新的数据源，然后使用新数据源创建新的批量预测。

## 查看批量预测指标（控制台）
<a name="review-console"></a>

要查看 Amazon ML 控制台中的指标，请打开**批量预测摘要**页面并查看**已处理信息**部分。

## 查看批量预测指标和详细信息 (API)
<a name="review-api"></a>

您可以使用 Amazon ML APIs 检索有关`BatchPrediction`对象的详细信息，包括记录指标。Amazon ML 提供以下批量预测 API 调用：
+ `CreateBatchPrediction`
+ `UpdateBatchPrediction`
+ `DeleteBatchPrediction`
+ `GetBatchPrediction`
+ `DescribeBatchPredictions`

有关更多信息，请参阅 [Amazon ML API 参考](https://docs.aws.amazon.com/machine-learning/latest/APIReference/)。

# 读取批量预测输出文件
<a name="reading-the-batchprediction-output-files"></a>

请执行以下步骤检索批量预测输出文件：

1. 找到批量预测清单文件。

1. 读取清单文件以确定输出文件的位置。

1. 检索包含预测结果的输出文件。

1. 解释输出文件的内容。所含内容因用于生成预测的 ML 模型的类型而异。

以下各部分详细介绍了这些步骤。

## 找到批量预测清单文件
<a name="locating-the-batch-prediction-manifest-file"></a>

批量预测的清单文件包含将输入文件映射到预测输出文件的信息。

要查找清单文件，请先从您在创建批量预测对象时指定的输出位置开始查找。您可以使用 Amazon [ML API](https://docs.aws.amazon.com/machine-learning/latest/APIReference/) 或，查询已完成的批量预测对象，以检索此文件的 S3 位置[https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/)。

清单文件所在的输出位置的路径中包含附加到输出位置的静态字符串 `/batch-prediction/` 和清单文件的名称，即附加了扩展名 `.manifest` 的批量预测的 ID。

例如，如果创建包含 ID `bp-example` 的批量预测对象，并将 S3 位置 `s3://examplebucket/output/` 指定为输出位置，则将在此处找到您的清单文件：

`s3://examplebucket/output/batch-prediction/bp-example.manifest`

## 读取清单文件
<a name="reading-the-manifest-file"></a>

.manifest 文件的内容以 JSON 映射的格式进行编码，其中的键是表示 S3 输入数据文件名称的字符串，值是表示与其关联的批量预测结果文件的字符串。每个 input/output 文件对都有一个映射行。继续使用我们的示例，如果创建 `BatchPrediction` 对象时使用的输入包含一个名为 data.csv 的文件，该文件位于 `s3://examplebucket/input/` 中，您可能会看到如下所示的映射字符串：

```
{"s3://examplebucket/input/data.csv":"
s3://examplebucket/output/batch-prediction/result/bp-example-data.csv.gz"}
```

如果创建 `BatchPrediction` 对象时使用的输入包含三个分别名为 data1.csv、data2.csv 和 data3.csv 的文件，这些文件都存储在 S3 位置 `s3://examplebucket/input/` 中，您可能会看到如下所示的映射字符串：

```
{"s3://examplebucket/input/data1.csv":"s3://examplebucket/output/batch-prediction/result/bp-example-data1.csv.gz",

"s3://examplebucket/input/data2.csv":"
s3://examplebucket/output/batch-prediction/result/bp-example-data2.csv.gz",

"s3://examplebucket/input/data3.csv":"
s3://examplebucket/output/batch-prediction/result/bp-example-data3.csv.gz"}
```

## 检索批量预测输出文件
<a name="retrieving-the-batch-prediction-output-files"></a>

您可以下载通过清单映射获取的每个批量预测文件，然后在本地处理映射该文件。文件格式为 CSV，使用 gzip 算法进行压缩。相应输入文件中的每个输入观察在该文件中对应一行。

要将预测与批量预测的输入文件合并，可以对两个文件进行简单 record-by-record合并。批量预测的输出文件包含的记录数量始终与预测输入文件的记录数量相同，并且采用相同的顺序。如果输入观察处理失败，无法生成任何预测，批量预测的输出文件将在相应的位置包含一个空白行。

## 解释二进制分类 ML 模型的批量预测文件的内容
<a name="interpreting-the-contents-of-batch-prediction-files-for-a-binary-classification-ml-model"></a>

二进制分类模型的批量预测文件的列命名为 **bestAnswer** 和 **score**。

**bestAnswer** 列包含的预测标签（“1”或“0”）是通过对截断值分数评估预测分数得到的。有关截断值分数的更多信息，请参阅[调整分数截断值](https://docs.aws.amazon.com/machine-learning/latest/dg/evaluating_models.html)。您可以使用 Amazon ML API 或 Amazon ML 控制台上的模型评估功能为 ML 模型设置截断值分数。如果未设置截断值分数，Amazon ML 会使用默认值 0.5。

**score** 列包含 ML 模型为此预测分配的原始预测分数。Amazon ML 使用逻辑回归模型，因此该分数尝试为观察的概率建模，该概率对应于 true（“1”）值。请注意，**score** 采用科学计数法报告，因此在以下示例的第一行中，值 8.7642E-3 等于 0.0087642。

例如，如果 ML 模型的截断值分数是 0.75，二进制分类模型的批量预测输出文件的内容可能如下所示：

```
bestAnswer,score

0,8.7642E-3

1,7.899012E-1


0,6.323061E-3

0,2.143189E-2


1,8.944209E-1
```

输入文件中第二个和第五个观察收到的预测分数高于 0.75，因此这些观察的 bestAnswer 列显示值“1”，而其他观察的值为“0”。

## 解释多类别分类 ML 模型的批量预测文件的内容
<a name="interpreting-the-contents-of-batch-prediction-files-for-a-multiclass-classification-ml-model"></a>

多类别模型的批量预测文件包含在训练数据中找到的每个类对应的列。列名显示在批量预测文件的标头行中。

当您请求多类别模型进行预测时，Amazon ML 会为输入文件中每个观察计算几个预测分数，每个分数对应于在输入数据集定义的每个类。这等同于询问“此观察属于此类而不是任何其他类的概率（测量值位于 0 和 1 之间）是多少？” 每个分数可以解释为“观察属于此类的概率”。由于预测分数为观察属于一个类或另一个类的潜在概率建模，因此每行所有预测分数的总和为 1。您需要先选择一个类作为模型的预测类。通常，您应选择概率最高的类作为最佳答案。

例如，请考虑尝试在 1 星至 5 星的范围内预测客户的产品评级。如果类命名为 `1_star`、`2_stars`、`3_stars`、`4_stars` 和 `5_stars`，多类别预测输出文件可能如下所示：

```
1_star, 2_stars, 3_stars, 4_stars, 5_stars

8.7642E-3, 2.7195E-1, 4.77781E-1, 1.75411E-1, 6.6094E-2

5.59931E-1, 3.10E-4, 2.48E-4, 1.99871E-1, 2.39640E-1

7.19022E-1, 7.366E-3, 1.95411E-1, 8.78E-4, 7.7323E-2

1.89813E-1, 2.18956E-1, 2.48910E-1, 2.26103E-1, 1.16218E-1

3.129E-3, 8.944209E-1, 3.902E-3, 7.2191E-2, 2.6357E-2
```

在本示例中，第一个观察具有 `3_stars` 类的最高预测分数（预测分数 = 4.77781E-1），因此您可以理解为此结果表示 `3_stars` 类是此项观察的最佳答案。请注意，预测分数采用科学计数法报告，因此预测分数 4.77781E-1 等于 0.477781。

在某些情况下，您可能不想选择概率最高的类。例如，您可能想创建低于您不考虑作为最佳答案的类的最小阈值，即使它包含最高预测分数。假设您要按流派为电影分类，并且要让预测分数至少为 5E-1，才声明该流派将为您的最佳答案。获得的预测分数为 3E-1 是喜剧片，2.5E 是戏剧，2.5E-1 是纪录片，2E-1 是动作片。在这种情况下，ML 模型会预测喜剧是您最有可能的选择，但您决定不选择它作为最佳答案。由于没有任何预测分数超出您的基准预测分数 5E-1，因此您确定此项预测不足以自信地预测流派，从而决定选择其他预测。您的应用程序可能会将此电影的流派字段视为“未知”。

## 解释回归 ML 模型的批量预测文件的内容
<a name="interpreting-the-contents-of-batch-prediction-files-for-a-regression-ml-model"></a>

回归模型的批量预测文件包含名为**分数**的单个列。此列包含输入数据中每个观察的原始数字预测。这些值采用科学计数法报告，因此以下示例的第一行中**分数**的值 -1.526385E1 等于 -15.26835。

此示例显示了在回归模型上执行的批量预测的输出文件：

```
score

-1.526385E1

-6.188034E0

-1.271108E1

-2.200578E1

8.359159E0
```

# 请求实时预测
<a name="requesting-real-time-predictions"></a>

实时预测是对 Amazon Machine Learning (Amazon ML) 的同步调用。Amazon ML 在收到请求时进行预测，并立即返回响应。实时预测通常用于实现交互式 Web、移动或桌面应用程序中的预测功能。您可以使用低延迟 `Predict` API，查询使用 Amazon ML 创建的 ML 模型进行实时预测。`Predict` 操作接受请求负载中的单个输入观察并在响应中同步返回预测。这使其有别于批量预测 API，后者使用指向输入观察位置的 Amazon ML 数据源对象的 ID 进行调用，并异步返回 URI，指向包含所有这些观察的预测的文件。Amazon ML 响应大多数实时预测请求的时间不超过 100 毫秒。

您可以在 Amazon ML 控制台中尝试实时预测而不产生任何费用。如果您随后决定使用实时预测，您必须首先为生成实时预测而创建终端节点。您可以在 Amazon ML 控制台中或者使用 `CreateRealtimeEndpoint` API 执行此操作。在您有终端节点之后，使用实时预测 API 来生成实时预测。

**注意**  
在您为模型创建实时终端节点之后，您将开始产生基于模型大小的容量预留费用。有关更多信息，请参阅[定价](https://aws.amazon.com/machine-learning/pricing/)。如果您在控制台中创建实时终端节点，控制台会显示终端节点将持续产生的估计费用明细。要在您不再需要从模型获取实时预测时停止产生费用，请使用控制台或 `DeleteRealtimeEndpoint` 操作删除实时终端节点。

有关 `Predict` 请求和响应的示例，请参阅 *Amazon Machine Learning API 参考*中的[预测](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html)。要查看使用您模型的确切响应格式的示例，请参阅[试用实时预测](#testing-real-time-predictions)。

**Topics**
+ [试用实时预测](#testing-real-time-predictions)
+ [创建实时终端节点](#creating-a-real-time-endpoint)
+ [查找实时预测终端节点（控制台）](#locate-endpoint-by-console)
+ [查找实时预测终端节点 (API)](#locating-the-real-time-prediction-endpoint)
+ [创建实时预测请求](#real-time-prediction-request-format)
+ [删除实时终端节点](#delete-endpoint)

## 试用实时预测
<a name="testing-real-time-predictions"></a>

为了帮助您决定是否启用实时预测，Amazon ML 允许您尝试针对单个数据记录生成预测，而不会产生与设置实时预测终端节点相关的额外费用。要试用实时预测，您必须拥有 ML 模型。要创建更大规模的实时预测，请使用 *Amazon Machine Learning API 参考*中的[预测](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html) API。

**尝试实时预测**

1. 登录 AWS 管理控制台 并打开 Amazon Machine Learning 控制台，网址为[https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/)。

1. 在导航栏的 **Amazon Machine Learning** 下拉菜单中，选择 **ML 模型**。

1. 从教程中选择您试用实时预测所要使用的模型，例如 `Subscription propensity model`。

1. 在 ML 模型报告页面的**预测**下，选择**摘要**，然后选择**尝试实时预测**。  
![\[Tools section with option to try real-time predictions.\]](http://docs.aws.amazon.com/zh_cn/machine-learning/latest/dg/images/try-real-time.png)

   Amazon ML 显示变量列表，这些变量组成了 Amazon ML 训练您模型时使用的数据记录。

1. 您可以继续在表单的各个字段中输入数据，或者以 CSV 格式粘贴单个数据记录到文本框中。

   要使用表单，对于各个**值**字段，输入您希望用于测试实时预测的数据。如果您输入的数据记录不包含一个或多个数据属性的值，请将条目字段留空。

   要提供数据记录，请选择**粘贴记录**。将 CSV 格式的一行数据粘贴到文本字段中，然后选择**提交**。Amazon ML 自动为您填充**值**字段。
**注意**  
数据记录中的数据必须与训练数据具有相同的列数，并且按相同顺序排列。唯一例外是您应省略目标值。如果您包括目标值，Amazon ML 将忽略它。

1. 在页面底部，选择**创建预测**。Amazon ML 立即返回预测。

   在**预测结果**窗格中，您可以看到 `Predict` API 调用返回的预测对象，以及 ML 模式类型、目标变量的名称以及预测的类别或值。有关解释结果的更多信息，请参阅[解释二进制分类 ML 模型的批量预测文件的内容](reading-the-batchprediction-output-files.md#interpreting-the-contents-of-batch-prediction-files-for-a-binary-classification-ml-model)。  
![\[Prediction results showing binary ML model type with predicted label 0 and score details.\]](http://docs.aws.amazon.com/zh_cn/machine-learning/latest/dg/images/real-time-result.png)

## 创建实时终端节点
<a name="creating-a-real-time-endpoint"></a>

要生成实时预测，您需要创建实时终端节点。要创建实时终端节点，您必须已经有要用于生成实时预测的 ML 模型。您可以使用 Amazon ML 控制台或者调用 `CreateRealtimeEndpoint` API 来创建实时终端节点。有关使用 `CreateRealtimeEndpoint` API 的更多信息，请参阅《Amazon Machine Learning API 参考》中的 [https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_CreateRealtimeEndpoint.html](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_CreateRealtimeEndpoint.html)。

**创建实时终端节点**

1. 登录 AWS 管理控制台 并打开 Amazon Machine Learning 控制台，网址为[https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/)。

1. 在导航栏的 **Amazon Machine Learning** 下拉菜单中，选择 **ML 模型**。

1. 选择要生成实时预测的模型。

1. 在 **ML 模型摘要**页面上的**预测**下，选择**创建实时终端节点**。

   此时会显示一个对话框，说明如何为实时预测定价。

1. 选择**创建**。实时终端节点请求发送到 Amazon ML 并进入队列中。实时终端节点的状态为**正在更新**。  
![\[Real-time endpoint status shown as "Updating" in a user interface element.\]](http://docs.aws.amazon.com/zh_cn/machine-learning/latest/dg/images/endpoint-updating.png)

1. 实时终端节点就绪之后，状态更改为**准备就绪**，并且 Amazon ML 显示终端节点 URL。使用终端节点 URL 可通过 `Predict` API 创建实时预测请求。有关使用 `Predict` API 的更多信息，请参阅《Amazon Machine Learning API 参考》中的 [https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html)。  
![\[Real-time endpoint status showing Ready with an endpoint URL and Peak Requests Per Second value.\]](http://docs.aws.amazon.com/zh_cn/machine-learning/latest/dg/images/endpoint-ready.png)

## 查找实时预测终端节点（控制台）
<a name="locate-endpoint-by-console"></a>

要使用 Amazon ML 控制台查找 ML 模型的终端节点 URL，请导航到模型的 **ML 模型摘要**页面。

**查找实时终端节点 URL**

1. 登录 AWS 管理控制台 并打开 Amazon Machine Learning 控制台，网址为[https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/)。

1. 在导航栏的 **Amazon Machine Learning** 下拉菜单中，选择 **ML 模型**。

1. 选择要生成实时预测的模型。

1. 在 **ML 模型摘要**页面上，向下滚动直至您看到**预测**部分。

1. 模型的终端节点 URL 在**实时预测**中列出。使用 URL 作为您实时预测调用的**终端节点 Url**。有关如何使用终端节点生成预测的信息，请参阅《Amazon Machine Learning API 参考》中的 [https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html](https://docs.aws.amazon.com/machine-learning/latest/APIReference/API_Predict.html)。

## 查找实时预测终端节点 (API)
<a name="locating-the-real-time-prediction-endpoint"></a>

在您使用 `CreateRealtimeEndpoint` 操作创建实时终端节点时，在响应中向您返回终端节点的 URL 和状态。如果您使用控制台创建实时终端节点，或者如果您希望检索以前创建的终端节点的 URL 和状态，请使用您要用来查询实时预测的模型的 ID 调用 `GetMLModel` 操作。终端节点信息包含在响应的 `EndpointInfo` 部分中。对于关联了实时终端节点的模型，`EndpointInfo` 可能类似于：

```
"EndpointInfo":{
    "CreatedAt": 1427864874.227,
    "EndpointStatus": "READY",
    "EndpointUrl": "https://endpointUrl",
    "PeakRequestsPerSecond": 200
}
```

没有实时终端节点的模型将返回以下内容：

```
EndpointInfo":{
    "EndpointStatus": "NONE",
    "PeakRequestsPerSecond": 0
}
```

## 创建实时预测请求
<a name="real-time-prediction-request-format"></a>

示例 `Predict` 请求有效负载可能类似于下面这样：

```
{
    "MLModelId": "model-id",
    "Record":{
        "key1": "value1",
        "key2": "value2"
    },
    "PredictEndpoint": "https://endpointUrl"
}
```

`PredictEndpoint` 字段必须对应于 `EndpointInfo` 结构的 `EndpointUrl` 字段。Amazon ML 使用此字段将请求路由到实时预测队列中的相应服务器。

`MLModelId` 是以前训练的模型（带有实时终端节点）的标识符。

`Record` 是变量名到变量值的映射。每一对表示一个观察。`Record` 映射包含对 Amazon ML 模型的输入。这类似于训练数据集中无目标变量的单行数据。无论训练数据中的值类型如何，都`Record`包含 string-to-string映射。

**注意**  
您可以忽略您没有值的变量，不过这可能会减少预测的准确性。您包括的变量越多，模型就越准确。

`Predict` 请求返回的响应格式取决于进行预测时查询的模型类型。在所有情况下，`details` 字段包含有关预测请求的信息，特别是包括带有模型类型的 `PredictiveModelType` 字段。

以下示例显示二进制模型的响应：

```
{
    "Prediction":{
        "details":{
            "PredictiveModelType": "BINARY"
        },
        "predictedLabel": "0",
        "predictedScores":{
            "0": 0.47380468249320984
        }
    }
}
```

请注意包含预测标签的 `predictedLabel` 字段，在本例中为 0。Amazon ML 将预测分数与分类截断值进行比较来计算预测标签。
+ 您可以检查 `GetMLModel` 操作的响应中的 `ScoreThreshold` 字段，或者在 Amazon ML 控制台中查看模型信息，来获取当前与 ML 模型关联的分类截断值。如果您未设置分数阈值，Amazon ML 会使用默认值 0.5。
+ 您可以通过检查 `predictedScores` 映射来获取二进制分类模型的确切预测分数。在此映射中，预测标签与确切的预测分数成对使用。

有关二进制预测的更多信息，请参阅[解释预测](binary-model-insights.md#interpreting-the-predictions)。

以下示例显示来自递归模型的响应。请注意在 `predictedValue` 字段中找到的预测数值：

```
{
    "Prediction":{
        "details":{
            "PredictiveModelType": "REGRESSION"
        },
        "predictedValue": 15.508452415466309
    }
}
```

以下示例显示多类别模型的响应：

```
{
    "Prediction":{
        "details":{
            "PredictiveModelType": "MULTICLASS"
        },
        "predictedLabel": "red",
        "predictedScores":{
            "red": 0.12923571467399597,
            "green": 0.08416014909744263,
            "orange": 0.22713537514209747,
            "blue": 0.1438363939523697,
            "pink": 0.184102863073349,
            "violet": 0.12816807627677917,
            "brown": 0.10336143523454666
        }
    }
}
```

与二元分类模型类似，预测 label/class 值可以在`predictedLabel`现场找到。您可以通过查看 `predictedScores` 映射，进一步了解预测与各分类相关联的强度。此映射中某个分类的分数越高，预测与该分类的相关性就越强，最高值最终被选择作为 `predictedLabel`。

有关多分类预测的更多信息，请参阅[多类别模型洞察](multiclass-model-insights.md)。

## 删除实时终端节点
<a name="delete-endpoint"></a>

当您完成实时预测时，请删除实时终端节点以避免产生额外的费用。在您删除终端节点之后，立即停止产生费用。

**删除实时终端节点**

1. 登录 AWS 管理控制台 并打开 Amazon Machine Learning 控制台，网址为[https://console.aws.amazon.com/machinelearning/](https://console.aws.amazon.com/machinelearning/)。

1. 在导航栏的 **Amazon Machine Learning** 下拉菜单中，选择 **ML 模型**。

1. 选择不再需要实时预测的模型。

1. 在 ML 模型报告页面上的**预测**下，选择**摘要**。

1. 选择**删除实时终端节点**。

1. 在**删除实时终端节点**对话框中，选择**删除**。