기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Mistral AI
Amazon Bedrock에서 사용할 수 있는 Mistral AI 모델은 다음과 같습니다.
| 모델 | 설명 |
|---|---|
| Mistral Small | Mistral Small은 분류, 번역 및 고객 지원과 같은 지연 시간이 짧은 작업에 최적화된 Mistral AI의 비용 효율적인 모델입니다. |
| 미니스트럴 14B 3.0 | Ministral 14B 3.0은 지식 및 추론 작업에 대한 강력한 성능을 갖춘 온디바이스 배포에 최적화된 Mistral AI의 140억 파라미터 엣지 모델입니다. |
| 미니스트럴 3 8B | 미니스트럴 3 8B는 효율적인 추론을 통해 엣지 및 모바일 배포를 위한 Mistral AI의 80억 파라미터 압축 모델입니다. |
| 미니스트럴 3B | 미니스트럴 3B는 최소한의 컴퓨팅이 필요한 온디바이스 작업을 위한 Mistral AI의 초소형 30억 파라미터 모델입니다. |
| Mistral Large 3 | Mistral Large 3는 코딩, 추론 및 다국어 작업에 대한 강력한 성능을 갖춘 Mistral AI의 6750억 파라미터 모델입니다. |
| Voxtral Small 24B 2507 | Voxtral Small 24B는 정확도가 높은 트랜스크립션 및 음성 이해를 위한 240억 개의 파라미터를 갖춘 Mistral AI의 speech-to-text 모델입니다. |
| Magistral Small 2509 | Magistral Small 2509는 복잡한 수학, 코딩 및 로직 문제를 해결하기 위해 chain-of-thought을 사용하는 Mistral AI의 추론 모델입니다. |
| Voxtral Mini 3B 2507 | Voxtral Mini 3B는 엣지 디바이스에 대한 실시간 트랜스크립션 및 음성 이해를 위한 Mistral AI의 컴팩트speech-to-text 모델입니다. |
| Devstral 2 123B | Devstral 2 123B는 코드 생성, 디버깅 및 리팩터링을 포함한 소프트웨어 엔지니어링 작업에 최적화된 Mistral AI의 1230억 파라미터 코딩 모델입니다. |
| Pixtral Large | Pixtral Large는 시각적 추론 및 문서 이해를 위해 텍스트와 이미지를 처리하는 Mistral AI의 1240억 파라미터 멀티모달 모델입니다. |
| Mistral Large | Mistral Large는 강력한 추론, 다국어 지원, 복잡한 엔터프라이즈 작업을 위한 32K 컨텍스트 기간을 갖춘 Mistral AI의 플래그십 모델입니다. |
| Mixtral 8x7B Instruct | Mixtral 8x7B Instruct는 각각 8명의 전문가와 7B 파라미터가 포함된 Mistral AI의 희소mixture-of-experts 모델로, 더 빠른 추론 속도로 강력한 성능을 제공합니다. |
| Mistral 7B 지침 | Mistral 7B Instruct는 효율적인 긴 컨텍스트 추론을 위해 그룹화된 쿼리 주의와 슬라이딩 윈도우 주의가 포함된 Mistral AI의 70억 파라미터 명령 튜닝 모델입니다. |