本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
使用兼容功能微调开放式重量模型 OpenAI APIs
Amazon Bedrock 提供了OpenAI兼容的 API 终端节点,用于微调基础模型。这些终端节点允许您使用 Amazon Bedrock 模型使用熟悉OpenAI SDKs 的工具来创建、监控和管理微调任务。本页重点介绍如何使用它们 APIs 进行钢筋微调。
关键功能
-
上传训练文件-使用 Files API 上传和管理用于微调作业的训练数据
-
创建微调作业 — 使用自定义训练数据和奖励函数开始微调作业
-
列出和检索作业-查看所有微调任务并获取有关特定任务的详细信息
-
监控作业事件-通过详细的事件日志跟踪微调进度
-
访问检查点-检索训练期间创建的中间模型检查点
-
即时推断 — 微调完成后,通过 APIs 兼容 Amazon Bedrock 的 OpenAI(响应/聊天完成 API),使用生成的微调模型进行按需推理,无需额外的部署步骤
-
易于迁移 — 与现有 OpenAI SDK 代码库兼容
开放式重量模型的钢筋微调工作流程
在微调之前,请确保您具备先决条件,因为 Amazon Bedrock 需要特定的权限才能创建和管理微调流程。有关全面的安全和权限信息,请参阅开放式重量模型的访问权限和安全性。
通过 5 个步骤对开放式重量模型进行钢筋微调:
-
上传训练数据集 — 使用 Files API 上传所需格式的提示(例如 JSONL),目的是 “微调” 作为强化微调训练数据集。有关更多信息,请参阅 为开放式权重模型准备数据。
-
配置奖励函数-使用 Lambda 函数定义评分者,根据正确性、结构、语气或其他目标对模型响应进行评分。有关更多信息,请参阅 为开放式权重模型设置奖励函数。
-
创建 Fine OpenAI-Tuning J ob — 通过指定基础模型、数据集、奖励函数和其他可选设置(例如超参数),使用兼容的 API 启动钢筋微调作业。有关更多信息,请参阅 创建微调作业。
-
监控训练进度-使用微调作业跟踪作业状态、事件和训练指标。 APIs有关更多信息,请参阅 列出微调事件。访问中间模型检查点以评估不同训练阶段的性能,请参阅列出微调检查点。
-
运行推理 — 直接使用经过微调的模型 ID 通过 Amazon Bedrock OpenAI 兼容的回复或聊天完成进行推理。 APIs有关更多信息,请参阅 使用经过微调的模型运行推理。
支持的区域和终端节点
下表显示了支持OpenAI兼容微调 APIs的基础模型和区域:
| Provider | 模型 | 模型 ID | 区域名称 | 区域 | 端点 |
|---|---|---|---|---|---|
| OpenAI | gpt-oss-20b | openai.gpt-oss-20b | 美国西部(俄勒冈州) | us-west-2 | bedrock-mantle.us-west-2.api.aws |
| Qwen | Qwen3 32B | qwen.qwen3-32b | 美国西部(俄勒冈州) | us-west-2 | bedrock-mantle.us-west-2.api.aws |