Mistral Large 3

ベースモデル
開発者
Mistral AI
ライセンス
Apache-2.0
リリース日
2025/12/2
コンテキスト長
256,000 トークン
対応言語
en, fr, de, es, it, pt, zh, ja, ko
知識カットオフ
2025-Q4
ベースモデル
mistral-large
officialtext-generationmultimodalmoegranular-moevisionmultilingualopen-source

Mistral AIの最新フラッグシップモデル。2025年12月2日公開。Granular MoEアーキテクチャ採用。総パラメータ675B、活性化41B。2.5Bパラメータのビジョンエンコーダー搭載。256Kコンテキスト。3000台のNVIDIA H200 GPUでスクラッチから学習。GPT-4o、Gemini 2に匹敵。Ministral 3シリーズ(3B/8B/14B)も同時リリース。

技術仕様

アーキテクチャ

Granular MoE, 2.5B vision encoder, FP8 native, 256K context

パラメータバリエーション

Mistral Large 3 Base (2512)(675B)

HuggingFace

ベースモデル。Granular MoE。675B総パラメータ、41B活性化。

MoEアクティブパラメータ: 41B
VRAM1.4TB

GGUFファイルは登録されていません

Mistral Large 3 Instruct (2512)(675B)

HuggingFace

指示チューニング版。マルチモーダル対応。GPT-4o、Gemini 2に匹敵。

MoEアクティブパラメータ: 41B
VRAM1.4TB

GGUFファイルは登録されていません

Ministral 3 3B Instruct (2512)(3B)

HuggingFace

最軽量版。ビジョン対応。エッジ向け。

VRAM8GB

GGUFファイルは登録されていません

Ministral 3 8B Instruct (2512)(8B)

HuggingFace

中型版。ビジョン対応。オンデバイス向け。

VRAM20GB

GGUFファイルは登録されていません

Ministral 3 14B Instruct (2512)(14B)

HuggingFace

大型版。ビジョン対応。Reasoningバリアントも利用可能。

VRAM35GB

GGUFファイルは登録されていません

Ministral 3 14B Reasoning (2512)(14B)

HuggingFace

推論特化版。AIME '25で85%達成。

VRAM35GB

GGUFファイルは登録されていません

家系図

現在のモデル: Mistral Large 3