

# 使用部署进行按需型推理
<a name="use-custom-model-on-demand"></a>

部署自定义模型进行按需型推理后，可通过提出推理请求，使用模型来生成响应。对于 `InvokeModel` 或 `Converse` 操作，请使用部署的 Amazon 资源名称 (ARN) 作为 `modelId`。

有关提出推理请求的信息，请参阅以下主题：
+ [使用模型推理提交提示并生成响应](https://docs.aws.amazon.com/bedrock/latest/userguide/inference.html)
+ [运行模型推理的先决条件](https://docs.aws.amazon.com/bedrock/latest/userguide/inference-prereq.html)
+ [使用 API 提交提示并生成响应](https://docs.aws.amazon.com/bedrock/latest/userguide/inference-api.html)