

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 模型兼容性
<a name="bedrock-marketplace-model-reference"></a>

所有模型都可以使用 `InvokeModel` 操作。部分模型可以使用 `Converse` 操作。

对于 Amazon Bedrock Marketplace 模型，请使用 [ApplyGuardrail](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ApplyGuardrail.html) API 来使用 Amazon Bedrock 护栏。

下表列出了可用的模型以及这些模型是否可以使用 `Converse` 操作：


| 名称 | 支持 Converse API | 支持流式处理 | 
| --- | --- | --- | 
|  Arcee Lite  |  支持  |  是  | 
|  Arcee Nova  |  支持  |  是  | 
|  Arcee SuperNova  |  支持  |  是  | 
|  Arcee Virtuoso Small  |  支持  |  是  | 
|  Aya 101  |  否  |  是  | 
|  Bart Large CNN samsum  |  否  |  否  | 
|  Bloom 1b1  |  否  |  是  | 
|  Bloom 1b7  |  否  |  是  | 
|  Bloom 3B  |  否  |  是  | 
|  Bloom 560m  |  否  |  是  | 
|  Bloom 7B1  |  否  |  是  | 
|  Bloomz 1b1  |  否  |  是  | 
|  Bloomz 1b7  |  否  |  是  | 
|  BloomZ 3B FP16  |  否  |  是  | 
|  BloomZ 7B1 FP16  |  否  |  是  | 
|  Bria 2.2HD Commercial  |  否  |  否  | 
|  Bria 2.3 Commercial   |  否  |  否  | 
|  Bria 2.3 Fast Commercial   |  否  |  否  | 
|  CyberAgentLM3-22B-Chat（CALM3-22B-Chat）  |  支持  |  是  | 
|  DBRX Base  |  否  |  是  | 
|  DBRX Instruct  |  支持  |  是  | 
|  DeepSeek-R1-Distill-Llama-70B  |  否  |  是  | 
|  DeepSeek-R1-Distill-Llama-8B  |  否  |  是  | 
|  DeepSeek-R1-Distill-Qwen-32B  |  否  |  是  | 
|  DeepSeek-R1-Distill-Qwen-14B  |  否  |  是  | 
|  DeepSeek-R1-Distill-Qwen-7B  |  否  |  是  | 
|  DeepSeek-R1-Distill-Qwen-1.5B  |  否  |  是  | 
|  DeepSeek-R1  |  否  |  是  | 
|  Distilbart CNN 12-6  |  否  |  否  | 
|  Distilbart CNN 6-6  |  否  |  否  | 
|  Distilbart xsum 12-3  |  否  |  否  | 
|  DistilGPT 2  |  否  |  是  | 
|  Dolly V2 12b BF16  |  否  |  是  | 
|  Dolly V2 3b BF16  |  否  |  是  | 
|  Dolly V2 7b BF16  |  否  |  是  | 
|  Dolphin 2.2.1 Mistral 7B  |  支持  |  是  | 
|  Dolphin 2.5 Mixtral 8 7B  |  支持  |  是  | 
|  EleutherAI GPT Neo 1.3B  |  否  |  是  | 
|  EleutherAI GPT Neo 2.7B  |  否  |  是  | 
|  ESM3-open  |  否  |  否  | 
|  EXAONE\$1v3.0 7.8B Instruct  |  是  |  否  | 
|  Falcon 40B BF16  |  否  |  是  | 
|  Falcon Lite  |  否  |  是  | 
|  Falcon Lite 2  |  否  |  是  | 
|  Falcon RW 1B  |  否  |  是  | 
|  Falcon3 1B Instruct  |  支持  |  是  | 
|  Falcon3 3B Base   |  否  |  是  | 
|  Falcon3 3B Instruct  |  支持  |  是  | 
|  Falcon3 7B Base  |  否  |  是  | 
|  Falcon3 7B Instruct  |  支持  |  是  | 
|  Falcon3 10B Base   |  否  |  是  | 
|  Falcon3 10B Instruct  |  支持  |  是  | 
|  Flan-T5 Base  |  否  |  是  | 
|  在 Samsum 数据集上微调 Flan-T5 基本模型  |  否  |  是  | 
|  Flan-T5 Large  |  否  |  是  | 
|  Flan-T5 Small  |  否  |  是  | 
|  Gemma 2 27B  |  否  |  是  | 
|  Gemma 2 27B Instruct  |  支持  |  是  | 
|  Gemma 2 2B  |  否  |  是  | 
|  Gemma 2 2B Instruct  |  支持  |  是  | 
|  Gemma 2 9B  |  否  |  是  | 
|  Gemma 2 9B Instruct  |  支持  |  是  | 
|  Gemma 2B  |  否  |  是  | 
|  Gemma 2B Instruct  |  支持  |  是  | 
|  Gemma 7B  |  否  |  是  | 
|  Gemma 7B Instruct  |  支持  |  是  | 
|  GPT 2  |  否  |  是  | 
|  GPT NeoX 20B FP16  |  否  |  是  | 
|  GPT-2 XL  |  否  |  是  | 
|  GPT-J 6B  |  否  |  是  | 
|  GPT-Neo 1.3B  |  否  |  是  | 
|  GPT-Neo 125M  |  否  |  是  | 
|  GPT-NEO 2.7B  |  否  |  是  | 
|  Granite 3.0 2B Instruct  |  支持  |  是  | 
|  Granite 3.0 8B Instruct  |  支持  |  是  | 
|  Gretel Navigator Tabular  |  支持  |  是  | 
|  IBM Granite 20B Code Instruct - 8K  |  支持  |  是  | 
|  IBM Granite 34B Code Instruct - 8K  |  支持  |  是  | 
|  IBM Granite 3B Code Instruct - 128K  |  支持  |  是  | 
|  IBM Granite 8B Code Instruct - 128K  |  支持  |  是  | 
|  KARAKURI LM 8x7b instruct  |  否  |  是  | 
|  Liquid  |  支持  |  是  | 
|  Llama 3.1 SuperNova Lite  |  支持  |  是  | 
|  Llama Spark  |  支持  |  是  | 
|  Llama-3-Varco-Offsetbias-8B  |  否  |  是  | 
|  Llama3 8B SEA-Lion v2.1 Instruct  |  支持  |  是  | 
|  MARS6  |  否  |  否  | 
|  Medical LLM - Medium  |  否  |  否  | 
|  Medical LLM - Small  |  否  |  否  | 
|  Medical Text Translation (EN-ES)  |  否  |  否  | 
|  Mistral 7B OpenOrca AWQ  |  支持  |  是  | 
|  Mistral 7B OpenOrca GPTQ  |  支持  |  是  | 
|  Mistral 7B SFT Alpha  |  支持  |  是  | 
|  Mistral 7B SFT Beta  |  支持  |  是  | 
|  Mistral Lite  |  支持  |  是  | 
|  Mistral Nemo Base 2407  |  否  |  是  | 
|  Mistral Nemo Instruct 2407  |  支持  |  是  | 
|  Mistral Trix V1  |  否  |  是  | 
|  MPT 7B BF16  |  否  |  是  | 
|  MPT 7B Instruct BF16  |  否  |  是  | 
|  MPT 7B StoryWriter-65k\$1 BF16  |  否  |  是  | 
|  Multilingual GPT  |  否  |  是  | 
|  NVIDIA Nemotron-4 15B NIM Microservice  |  是  |  否  | 
|  Open Hermes 2 Mistral 7B  |  支持  |  是  | 
|  Phi-2  |  否  |  是  | 
|  Phi-3-Mini-128K-Instruct  |  支持  |  是  | 
|  Phi-3-Mini-4K-Instruct  |  支持  |  是  | 
|  Phi-3.5-mini-instruct  |  支持  |  是  | 
|  Pixtral 12B 2409  |  支持  |  是  | 
|  PLaMo API  |  否  |  是  | 
|  Snowflake Arctic Instruct Vllm  |  支持  |  是  | 
|  Solar Mini Chat  |  支持  |  是  | 
|  Solar Mini Chat - Quant  |  支持  |  是  | 
|  Solar Mini Chat ja  |  支持  |  是  | 
|  Solar Mini Chat ja - Quant  |  支持  |  是  | 
|  Solar Pro  |  支持  |  是  | 
|  Solar Pro（Quantized）  |  支持  |  是  | 
|  Stable Diffusion 3.5 Large  |  否  |  否  | 
|  Stockmark-LLM-13b  |  否  |  否  | 
|  文本摘要  |  否  |  否  | 
|  VARCO LLM KO/EN-13B-IST  |  是  |  否  | 
|  Whisper Large V3 Turbo  |  否  |  是  | 
|  Widn Llama3-Tower Vesuvius  |  支持  |  是  | 
|  Widn Tower Anthill  |  支持  |  是  | 
|  Widn Tower Sugarloaf  |  支持  |  是  | 
|  Writer Palmyra Small  |  否  |  是  | 
|  Writer Palmyra-Fin-70B-32K  |  支持  |  是  | 
|  Writer Palmyra-Med-70B-32K  |  支持  |  是  | 
|  YARN Mistral 7B 128k  |  否  |  是  | 
|  Yi-1.5-34B  |  否  |  是  | 
|  Yi-1.5-34B-Chat  |  支持  |  是  | 
|  Yi-1.5-6B  |  否  |  是  | 
|  Yi-1.5-6B-Chat  |  支持  |  是  | 
|  Yi-1.5-9B  |  否  |  是  | 
|  Yi-1.5-9B-Chat  |  支持  |  是  | 
|  Zephyr 7B Alpha  |  否  |  是  | 
|  Zephyr 7B Beta  |  否  |  是  | 
|  Zephyr 7B Gemma  |  否  |  是  | 