View a markdown version of this page

使用 OpenAI相容的 APIs 微調開放權重模型 - Amazon Bedrock

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

使用 OpenAI相容的 APIs 微調開放權重模型

Amazon Bedrock 為微調基礎模型提供OpenAI相容的 API 端點。這些端點可讓您使用熟悉的 OpenAI SDK 和工具,透過 Amazon Bedrock 模型建立、監控和管理微調任務。 SDKs 此頁面會反白使用這些 APIs 進行強化微調。

關鍵功能

  • 上傳訓練檔案 – 使用檔案 API 上傳和管理訓練資料以進行微調任務

  • 建立微調任務 – 使用自訂訓練資料和獎勵函數開始微調任務

  • 列出和擷取任務 – 檢視所有微調任務,並取得特定任務的詳細資訊

  • 監控任務事件 – 透過詳細的事件日誌追蹤微調進度

  • 存取檢查點 – 擷取訓練期間建立的中繼模型檢查點

  • 立即推論 – 微調完成後,使用產生的微調模型,透過 Amazon Bedrock 的 OpenAI 相容 APIs (回應/聊天完成 API) 進行隨需推論,而無需額外的部署步驟

  • 輕鬆遷移 – 與現有的 OpenAI SDK 程式碼庫相容

開放式加權模型的強化微調工作流程

在微調之前,請確保您有先決條件,因為 Amazon Bedrock 需要特定許可來建立和管理微調程序。如需完整的安全性和許可資訊,請參閱 開放權重模型的存取和安全性

以 5 個步驟對開放權重模型執行強化微調:

  1. 上傳訓練資料集 – 使用檔案 API 以必要格式 (例如 JSONL) 上傳提示,並將「微調」作為強化微調訓練資料集。如需詳細資訊,請參閱準備開放權重模型的資料

  2. 設定獎勵函數 – 定義評分器,以根據 Lambda 函數的正確性、結構、色調或其他目標對模型回應進行評分。如需詳細資訊,請參閱設定開放權重模型的獎勵函數

  3. 建立微調任務 – 透過指定基礎模型、資料集、獎勵函數和其他選用設定,例如超參數,使用 OpenAI相容的 API 啟動強化微調任務。如需詳細資訊,請參閱建立微調任務

  4. 監控訓練進度 – 使用微調任務 APIs 追蹤任務狀態、事件和訓練指標。如需詳細資訊,請參閱列出微調事件。存取中繼模型檢查點以評估不同訓練階段的效能,請參閱 列出微調檢查點

  5. 執行推論:透過 Amazon Bedrock 的 OpenAI相容的回應或聊天完成 APIs,直接使用微調後的模型 ID 進行推論。如需詳細資訊,請參閱使用微調的模型執行推論

支援的區域和端點

下表顯示支援OpenAI相容微調 APIs 的基礎模型和區域:

相容OpenAI微調 APIs 支援的模型和區域
供應商 模型 模型 ID 區域名稱 區域 Endpoint
OpenAI Gpt-oss-20B openai.gpt-oss-20b 美國西部 (奧勒岡) us-west-2 bedrock-mantle.us-west-2.api.aws
Qwen Qwen3 32B qwen.qwen3-32b 美國西部 (奧勒岡) us-west-2 bedrock-mantle.us-west-2.api.aws