翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Mistral AI
Amazon Bedrock では、次の Mistral AI モデルを使用できます。
| [Model] (モデル) | 説明 |
|---|---|
| 霧小 | Mistral Small は、分類、翻訳、カスタマーサポートなどの低レイテンシーのタスク用に最適化された Mistral AI のコスト効率の高いモデルです。 |
| 最小 14B 3.0 | Ministral 14B 3.0 は、Mistral AI の 140 億パラメータエッジモデルで、知識と推論タスクに関する強力なパフォーマンスを備えたデバイス上のデプロイ用に最適化されています。 |
| 最小 3 8B | Ministral 3 8B は、効率的な推論によるエッジデプロイとモバイルデプロイのための Mistral AI の 80 億パラメータのコンパクトモデルです。 |
| 最小 3B | Ministral 3B は、最小限のコンピューティングを必要とするデバイスタスク用の Mistral AI の超コンパクトな 30 億パラメータモデルです。 |
| 霧状大 3 | Mistral Large 3 は、Mistral AI の 6,750 億のパラメータモデルで、コーディング、推論、多言語タスクにおいて強力なパフォーマンスを備えています。 |
| Voxtral Small 24B 2507 | Voxtral Small 24B は、高精度の文字起こしと音声理解のための 240 億のパラメータを備えた Mistral AI のspeech-to-textモデルです。 |
| Magistral Small 2509 | Magistral Small 2509 は、chain-of-thoughtを使用して複雑な数学、コーディング、ロジックの問題を解決する Mistral AI の推論モデルです。 |
| Voxtral Mini 3B 2507 | Voxtral Mini 3B は、エッジデバイスでのリアルタイムの文字起こしと音声理解のための Mistral AI のコンパクトなspeech-to-textです。 |
| 開発 2 123B | Devstral 2 123B は、コード生成、デバッグ、リファクタリングなどのソフトウェアエンジニアリングタスク用に最適化された Mistral AI の 123 億パラメータコーディングモデルです。 |
| Pixtral Large | Pixtral Large は、Mistral AI の 1,240 億パラメータのマルチモーダルモデルで、視覚的な推論とドキュメントの理解のためにテキストと画像を処理します。 |
| 霧状大 | Mistral Large は、強力な推論、多言語サポート、複雑なエンタープライズタスクのための 32K コンテキストウィンドウを備えた Mistral AI の主力モデルです。 |
| Mixtral 8x7B Instruct | Mixtral 8x7B Instruct は、8 人のエキスパートと 70 7B個のパラメータを持つ Mistral AI mixture-of-expertsモデルであり、より高速な推論速度で強力なパフォーマンスを提供します。 |
| Mistral 7B Instruct | Mistral 7B Instruct は、Mistral AI の 70 億パラメータの命令チューニングモデルで、グループクエリの注意とスライディングウィンドウの注意により、効率的なロングコンテキスト推論を実現します。 |