Ministral
ベースモデルofficialtext-generationedgeefficienton-device
Mistral AIのエッジ向け小型モデル。2024年10月16日公開。3Bと8Bの2サイズ展開。8BはインターリーブドSliding Window Attentionで高速・メモリ効率的推論を実現。オンデバイス、プライバシー優先の推論向け。LLaMA 3.1 8B、Mistral 7Bを上回る性能。128Kコンテキスト。
技術仕様
アーキテクチャ
Dense Transformer, Interleaved Sliding Window Attention (8B)
パラメータバリエーション
Ministral 3B(3B)
最軽量版。LLaMA 3.2 3Bを上回る性能。
VRAM8GB
GGUFファイルは登録されていません
Ministral 8B Instruct (2410)(8B)
HuggingFaceインターリーブドSWA採用。LLaMA 3.1 8B超。エージェントワークフロー向け。
VRAM20GB
GGUFファイルは登録されていません
関連モデル
Mistral 7B
6 バリエーション
Mixtral 8x7B
2 バリエーション
Mixtral 8x22B
2 バリエーション
Mistral Large
2 バリエーション
Mistral Small
4 バリエーション
Mistral Medium 3
2 バリエーション
Codestral
3 バリエーション
Codestral Mamba
1 バリエーション
Mathstral
1 バリエーション
Mistral NeMo
2 バリエーション
Pixtral 12B
1 バリエーション
Pixtral Large
1 バリエーション
Mistral Saba
1 バリエーション
Magistral
2 バリエーション
Voxtral
2 バリエーション
Devstral
4 バリエーション
Mistral Large 3
6 バリエーション
家系図
現在のモデル: Ministral