View a markdown version of this page

Mistral AI - Amazon Bedrock

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Mistral AI

Amazon Bedrock에서 사용할 수 있는 Mistral AI 모델은 다음과 같습니다.

모델 설명
Mistral SmallMistral Small은 분류, 번역 및 고객 지원과 같은 지연 시간이 짧은 작업에 최적화된 Mistral AI의 비용 효율적인 모델입니다.
미니스트럴 14B 3.0Ministral 14B 3.0은 지식 및 추론 작업에 대한 강력한 성능을 갖춘 온디바이스 배포에 최적화된 Mistral AI의 140억 파라미터 엣지 모델입니다.
미니스트럴 3 8B미니스트럴 3 8B는 효율적인 추론을 통해 엣지 및 모바일 배포를 위한 Mistral AI의 80억 파라미터 압축 모델입니다.
미니스트럴 3B미니스트럴 3B는 최소한의 컴퓨팅이 필요한 온디바이스 작업을 위한 Mistral AI의 초소형 30억 파라미터 모델입니다.
Mistral Large 3Mistral Large 3는 코딩, 추론 및 다국어 작업에 대한 강력한 성능을 갖춘 Mistral AI의 6750억 파라미터 모델입니다.
Voxtral Small 24B 2507Voxtral Small 24B는 정확도가 높은 트랜스크립션 및 음성 이해를 위한 240억 개의 파라미터를 갖춘 Mistral AI의 speech-to-text 모델입니다.
Magistral Small 2509Magistral Small 2509는 복잡한 수학, 코딩 및 로직 문제를 해결하기 위해 chain-of-thought을 사용하는 Mistral AI의 추론 모델입니다.
Voxtral Mini 3B 2507Voxtral Mini 3B는 엣지 디바이스에 대한 실시간 트랜스크립션 및 음성 이해를 위한 Mistral AI의 컴팩트speech-to-text 모델입니다.
Devstral 2 123BDevstral 2 123B는 코드 생성, 디버깅 및 리팩터링을 포함한 소프트웨어 엔지니어링 작업에 최적화된 Mistral AI의 1230억 파라미터 코딩 모델입니다.
Pixtral LargePixtral Large는 시각적 추론 및 문서 이해를 위해 텍스트와 이미지를 처리하는 Mistral AI의 1240억 파라미터 멀티모달 모델입니다.
Mistral LargeMistral Large는 강력한 추론, 다국어 지원, 복잡한 엔터프라이즈 작업을 위한 32K 컨텍스트 기간을 갖춘 Mistral AI의 플래그십 모델입니다.
Mixtral 8x7B InstructMixtral 8x7B Instruct는 각각 8명의 전문가와 7B 파라미터가 포함된 Mistral AI의 희소mixture-of-experts 모델로, 더 빠른 추론 속도로 강력한 성능을 제공합니다.
Mistral 7B 지침Mistral 7B Instruct는 효율적인 긴 컨텍스트 추론을 위해 그룹화된 쿼리 주의와 슬라이딩 윈도우 주의가 포함된 Mistral AI의 70억 파라미터 명령 튜닝 모델입니다.