本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
使用 OpenAI相容的 APIs 微調開放權重模型
Amazon Bedrock 為微調基礎模型提供OpenAI相容的 API 端點。這些端點可讓您使用熟悉的 OpenAI SDK 和工具,透過 Amazon Bedrock 模型建立、監控和管理微調任務。 SDKs 此頁面會反白使用這些 APIs 進行強化微調。
關鍵功能
-
上傳訓練檔案 – 使用檔案 API 上傳和管理訓練資料以進行微調任務
-
建立微調任務 – 使用自訂訓練資料和獎勵函數開始微調任務
-
列出和擷取任務 – 檢視所有微調任務,並取得特定任務的詳細資訊
-
監控任務事件 – 透過詳細的事件日誌追蹤微調進度
-
存取檢查點 – 擷取訓練期間建立的中繼模型檢查點
-
立即推論 – 微調完成後,使用產生的微調模型,透過 Amazon Bedrock 的 OpenAI 相容 APIs (回應/聊天完成 API) 進行隨需推論,而無需額外的部署步驟
-
輕鬆遷移 – 與現有的 OpenAI SDK 程式碼庫相容
開放式加權模型的強化微調工作流程
在微調之前,請確保您有先決條件,因為 Amazon Bedrock 需要特定許可來建立和管理微調程序。如需完整的安全性和許可資訊,請參閱 開放權重模型的存取和安全性。
以 5 個步驟對開放權重模型執行強化微調:
-
上傳訓練資料集 – 使用檔案 API 以必要格式 (例如 JSONL) 上傳提示,並將「微調」作為強化微調訓練資料集。如需詳細資訊,請參閱準備開放權重模型的資料。
-
設定獎勵函數 – 定義評分器,以根據 Lambda 函數的正確性、結構、色調或其他目標對模型回應進行評分。如需詳細資訊,請參閱設定開放權重模型的獎勵函數。
-
建立微調任務 – 透過指定基礎模型、資料集、獎勵函數和其他選用設定,例如超參數,使用 OpenAI相容的 API 啟動強化微調任務。如需詳細資訊,請參閱建立微調任務。
-
監控訓練進度 – 使用微調任務 APIs 追蹤任務狀態、事件和訓練指標。如需詳細資訊,請參閱列出微調事件。存取中繼模型檢查點以評估不同訓練階段的效能,請參閱 列出微調檢查點。
-
執行推論:透過 Amazon Bedrock 的 OpenAI相容的回應或聊天完成 APIs,直接使用微調後的模型 ID 進行推論。如需詳細資訊,請參閱使用微調的模型執行推論。
支援的區域和端點
下表顯示支援OpenAI相容微調 APIs 的基礎模型和區域:
| 供應商 | 模型 | 模型 ID | 區域名稱 | 區域 | Endpoint |
|---|---|---|---|---|---|
| OpenAI | Gpt-oss-20B | openai.gpt-oss-20b | 美國西部 (奧勒岡) | us-west-2 | bedrock-mantle.us-west-2.api.aws |
| Qwen | Qwen3 32B | qwen.qwen3-32b | 美國西部 (奧勒岡) | us-west-2 | bedrock-mantle.us-west-2.api.aws |