Mistral
開発者: Mistral AI
Mistral AIが開発するLLMシリーズ。2023年4月にフランス・パリで設立。創業者はGoogle DeepMindとMeta出身。Sliding Window AttentionやMixture-of-Experts(MoE)アーキテクチャの革新で知られる。オープンソースへのコミットメントと効率性重視のアプローチが特徴。テキスト生成(Mistral/Mixtral/Large/Small)、コード(Codestral)、数学(Mathstral)、マルチモーダル(Pixtral)、推論(Magistral)、音声(Voxtral)など多様なモデルを展開。
家系図
モデル一覧 (18)
Mistral 7B
Mistral AIの初代モデル。2023年9月27日公開。Sliding Window Attention(SWA)とGrouped-Query Attention(GQA)を採用し効率的な推論を実現。LLaMA 2 13Bを全ベンチマークで上回り、LLaMA 34Bに匹敵する性能。8Kコンテキスト。Apache 2.0ライセンス。
Mixtral 8x7B
Mistral AIの初のMoEモデル。2023年12月11日公開。8エキスパート構成でトークンごとに2つを選択(Top-2ルーティング)。総パラメータ47B、活性化13B。LLaMA 2 70Bを上回り、GPT-3.5に匹敵。32Kコンテキスト。英語、フランス語、イタリア語、ドイツ語、スペイン語対応。
Mixtral 8x22B
Mistral AIの大型MoEモデル。2024年4月17日公開。8エキスパート×22B構成。総パラメータ141B、活性化39B。ネイティブ関数呼び出し、制約付き出力モード対応。ChatGPT 3.5をMMLUとWinoGrandeで上回る。65Kコンテキスト。
Mistral Large
Mistral AIのフラッグシップモデル。Large(2024年2月)、Large 2(2024年7月)、Large 2.1(2024年11月)と進化。128Kコンテキスト、80以上のコーディング言語対応。ネイティブ関数呼び出し。12言語以上対応(日本語含む)。
Mistral Small
Mistral AIの効率重視モデル。Small 2(2024年9月)からSmall 3(2025年1月)、Small 3.1(ビジョン追加、2025年3月)、Small 3.2(2025年6月)と進化。24Bパラメータ。低レイテンシ、高効率の指示追従。エンタープライズグレードの効率性。
Mistral Medium 3
Mistral AIのエンタープライズ向け中型モデル。2025年5月7日公開。フロンティアレベルの能力を大幅に低い運用コストで提供。Mistral Large 2とMistral Small 3の中間に位置。
Codestral
Mistral AIのコード特化モデル。2024年5月29日公開。80以上のプログラミング言語対応。Fill-in-the-Middle(FIM)対応でコード補完、テスト生成、コード修正に特化。32Kコンテキスト。Codestral 25.01で2.5倍高速化。
Codestral Mamba
Mamba 2アーキテクチャベースのコードモデル。2024年7月16日公開。State Space Models(SSM)により線形時間推論を実現。理論上無限長シーケンス対応。7Bパラメータながら22B Codestralに匹敵する性能。256Kコンテキスト。入力長に関係なく高速推論。
Mathstral
数学・STEM特化モデル。2024年7月16日公開。Project Numinaとの共同開発。Mistral 7Bベースの命令チューニング。複雑な多段階論理推論、数学的証明、科学計算に最適化。MATH 56.6%(単一)、68.37%(多数決)、74.59%(報酬モデル選択)達成。
Mistral NeMo
NVIDIAとの共同開発モデル。2024年7月18日公開。12Bパラメータ。128Kコンテキスト。量子化対応学習でFP8推論でも性能劣化なし。Gemma 2 9B、LLaMA 3 8Bを上回る性能。Mistral 7Bのドロップイン置き換え。中国語処理を大幅改善。
Pixtral 12B
Mistral AIの初のマルチモーダルモデル。2024年9月17日公開。テキスト12B+ビジョンエンコーダー400Mパラメータ。スクラッチから学習した新規ビジョンエンコーダーで可変解像度・アスペクト比対応。128Kコンテキストで任意の数の画像を処理可能。Mistral NeMo 12Bのドロップイン置き換え。
Ministral
Mistral AIのエッジ向け小型モデル。2024年10月16日公開。3Bと8Bの2サイズ展開。8BはインターリーブドSliding Window Attentionで高速・メモリ効率的推論を実現。オンデバイス、プライバシー優先の推論向け。LLaMA 3.1 8B、Mistral 7Bを上回る性能。128Kコンテキスト。
Pixtral Large
Mistral AIのフロンティアクラスマルチモーダルモデル。2024年11月18日公開。Mistral Large 2ベース。テキスト123B+ビジョンエンコーダー1Bで合計124Bパラメータ。最大30枚の高解像度画像を同時処理。MathVista 69.4%でGPT-4o、Claude-3.5 Sonnetを超越。128Kコンテキスト。
Mistral Saba
中東・南アジア地域特化モデル。2025年2月公開。中東・南アジアのデータセットで特別に学習。地域の言語・文化的コンテキストに最適化。地域アプリケーション向けに強化された言語サポート。
Magistral
Mistral AI初の推論特化モデル。2025年6月10日公開。Mistral Small 3ベース。透明で多段階の論理的推論を実現。Chain-of-Thoughtアプローチ。多言語対応。OpenAI o1のような推論能力を目指す。エンタープライズ向け高忠実度推論。
Voxtral
Mistral AIの音声入力モデル。2025年7月公開。Mistral Small 3に最先端の音声入力機能を追加。音声文字起こし、翻訳、音声理解に優れる。テキスト性能を維持しつつ音声機能を統合。
Devstral
Mistral AIの開発者・コーディング特化モデル。2025年5月公開。AI支援ソフトウェア開発に最適化。Devstral Small 2(2025年12月)はQwen 3 Coder Flash(30B)を上回る性能。Mistral Vibe CLIツールと統合。
Mistral Large 3
Mistral AIの最新フラッグシップモデル。2025年12月2日公開。Granular MoEアーキテクチャ採用。総パラメータ675B、活性化41B。2.5Bパラメータのビジョンエンコーダー搭載。256Kコンテキスト。3000台のNVIDIA H200 GPUでスクラッチから学習。GPT-4o、Gemini 2に匹敵。Ministral 3シリーズ(3B/8B/14B)も同時リリース。