

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 添加模型
<a name="jumpstart-content-sharing-add-model"></a>

要添加模型，请选择**由我的组织共享**，然后从**添加**下拉列表中选择**添加模型**。输入模型的基本信息，并添加要与协作者共享的任何训练或推理信息，以便训练或部署模型。输入所有必需信息后，选择屏幕右下角的**添加模型**。

**Topics**
+ [添加基本信息](jumpstart-content-sharing-info.md)
+ [启用训练](jumpstart-content-sharing-training.md)
+ [启用部署](jumpstart-content-sharing-deployment.md)
+ [添加笔记本](jumpstart-content-sharing-notebooks.md)

# 添加基本信息
<a name="jumpstart-content-sharing-info"></a>

在中添加模型 JumpStart 需要提供有关您要训练的模型的一些基本信息。这些信息有助于确定模型的特征和功能，并提高其可发现性和可搜索性。要创建新模型，请按照以下步骤操作：

1. 添加此模型的标题。添加标题后，系统会根据模型标题自动在 ID 字段中填充唯一标识符。

1. 添加模型的描述。

1. 从选项中选择一种数据类型：*文本*、*视觉*、*表格*或*音频*。

1. 从可用任务列表中选择机器学习任务，例如*图像分类*或*文本生成*。

1. 选择机器学习框架。

1. 添加带有关键字或短语的元数据信息，以便用于搜索模型。使用逗号分隔关键字。所有空格都将自动替换为逗号。

# 启用训练
<a name="jumpstart-content-sharing-training"></a>

添加要共享的模型时，您可以选择提供训练环境，并允许组织中的协作者训练共享的模型。

**注意**  
如果您要添加表格模型，则还需要指定列格式和目标列以启用训练。

提供模型的基本详细信息后，您需要配置用于训练模型的训练作业的设置。这包括指定容器环境、代码脚本、数据集、输出位置和其他各种参数，以控制训练作业的执行方式。要配置训练作业设置，请按照以下步骤操作：

1. 添加用于模型训练的容器。您可以选择用于现有训练作业的容器，将自己的容器带入 Amazon ECR，或者使用 Amazon SageMaker 深度学习容器。

1. 添加环境变量。

1. 提供训练脚本位置。

1. 提供脚本模式入口点。

1. 为训练期间生成的模型构件提供 Amazon S3 URI。

1. 向默认训练数据集提供 Amazon S3 URI。

1. 提供模型输出路径。模型输出路径应为训练生成的任何模型项目的 Amazon S3 URI 路径。 SageMaker AI 将模型工件作为单个压缩的 TAR 文件保存到 Amazon S3 中。

1. 提供验证数据集，用于在训练期间评估您的模型。验证数据集必须包含与训练数据集相同的列数和相同的特征标题。

1. 开启网络隔离。网络隔离可隔离模型容器，这样就无法通过模型容器进行入站或出站网络调用。

1. 提供培训渠道， SageMaker AI 可以通过这些渠道访问您的数据。例如，您可以指定名为 `train` 或 `test` 的输入通道。对于每个通道，请指定通道名称以及您数据位置的 URI。选择**浏览**以搜索 Amazon S3 位置。

1. 提供超参数。添加任意超参数，合作者在训练期间应使用这些参数进行实验。为这些超参数提供一系列有效值。此范围用于训练作业超参数验证。您可以根据超参数的数据类型定义范围。

1. 选择一个实例类型。对于大批量训练，建议使用具有更多内存的 GPU 实例。有关各AWS区域 SageMaker 训练实例的完整列表，请参阅 [Amazon Pricing 中的**按需 SageMaker 定价**表。](https://aws.amazon.com/sagemaker/pricing/)

1. 提供指标。通过为训练作业所监控的各个指标指定名称和正则表达式，定义训练作业的指标。设计正则表达式以捕获您的算法发出的指标值。例如，指标 `loss` 可以具有正则表达式 `"Loss =(.*?);"`。

# 启用部署
<a name="jumpstart-content-sharing-deployment"></a>

添加要共享的模型时，您可以选择提供推理环境，组织中的协作者可以在该环境中部署共享的模型用于推理。

训练完机器学习模型后，您需要将其部署到 Amazon A SageMaker I 终端节点进行推理。这包括提供容器环境、推理脚本、训练期间生成的模型构件，以及选择适当的计算实例类型。正确配置这些设置对于确保部署的模型能够进行准确预测和高效处理推理请求至关重要。要设置推理模型，请按照以下步骤操作：

1. 添加用于推理的容器。您可以将自己的容器带入 Amazon ECR，也可以使用亚马逊 SageMaker 深度学习容器。

1. 提供推理脚本的 Amazon S3 URI。自定义推理脚本在您选择的容器内运行。您的推理脚本应包括用于模型加载的函数，用于生成预测的可选函数，以及输入和输出处理。有关为所选框架创建推理脚本的更多信息，请参阅 SageMaker Python SDK 文档中的[框架](https://sagemaker.readthedocs.io/en/stable/frameworks/index.html)。例如 TensorFlow，请参阅[如何实现预 and/or 后处理处理程序。](https://sagemaker.readthedocs.io/en/stable/frameworks/tensorflow/deploying_tensorflow_serving.html#how-to-implement-the-pre-and-or-post-processing-handler-s)

1. 为模型构件提供 Amazon S3 URI。模型构件是训练模型得到的输出，通常由经过训练的参数、描述如何计算推理的模型定义以及其他元数据组成。如果您使用 SageMaker AI 训练模型，则模型工件将作为单个压缩的 TAR 文件保存在 Amazon S3 中。如果您在 SageMaker AI 之外训练模型，则需要创建这个压缩的 TAR 文件并将其保存在 Amazon S3 的位置。

1. 选择一个实例类型。对于大批量训练，建议使用具有更多内存的 GPU 实例。有关各AWS区域 SageMaker 训练实例的完整列表，请参阅 [Amazon Pricing 中的**按需 SageMaker 定价**](https://aws.amazon.com/sagemaker/pricing/)表。

# 添加笔记本
<a name="jumpstart-content-sharing-notebooks"></a>

要添加笔记本，请选择**由我的组织共享**，然后从**添加**下拉列表中选择**添加笔记本**。输入笔记本的基本信息，并提供该笔记本所在位置的 Amazon S3 URI。

首先，添加有关笔记本的基本描述性信息。这些信息用于提高笔记本的可搜索性。

1. 为此笔记本添加标题。添加标题后，系统会根据笔记本标题自动在 ID 字段中填充唯一标识符。

1. 添加笔记本的描述。

1. 从选项中选择一种数据类型：*文本*、*视觉*、*表格*或*音频*。

1. 从可用任务列表中选择 ML 任务，例如*图像分类*或*文本生成*。

1. 选择一个 ML 框架。

1. 添加带有关键字或短语的元数据信息，以便用于搜索笔记本。使用逗号分隔关键字。所有空格都将自动替换为逗号。

指定基本信息后，您可以提供笔记本所在位置的 Amazon S3 URI。您可以选择**浏览**，在 Amazon S3 存储桶中搜索笔记本文件的位置。找到笔记本后，复制 Amazon S3 URI，选择**取消**，然后将 Amazon S3 URI 添加到**笔记本位置**字段。

输入所有必需信息后，选择右下角的**添加笔记本**。