DeepSeek-V3.2
ベースモデルofficialtext-generationmoesparse-attentioncompetitionopen-source
DeepSeek AIのV3.2モデル。2025年12月1日公開。DeepSeek Sparse Attention(DSA)を導入し、より効率的なアテンション機構を実現。GPT-5/Gemini-3.0-Pro相当の性能。IMO 2025、IOI 2025で金メダル達成。685Bパラメータ。MITライセンス。
技術仕様
アーキテクチャ
MoE with DeepSeek Sparse Attention (DSA), Efficient long-context attention
パラメータバリエーション
DeepSeek-V3.2(685B)
HuggingFaceDeepSeek Sparse Attention搭載。IMO/IOI 2025金メダル達成。
MoEアクティブパラメータ: ~40B
VRAM1.4TB
GGUFファイルは登録されていません
関連モデル
DeepSeek-LLM
4 バリエーション
DeepSeek-Coder
7 バリエーション
DeepSeekMoE
2 バリエーション
DeepSeek-Math
3 バリエーション
DeepSeek-VL
2 バリエーション
DeepSeek-V2
4 バリエーション
DeepSeek-Coder-V2
4 バリエーション
DeepSeek-Prover
1 バリエーション
DeepSeek-V2.5
1 バリエーション
DeepSeek-V3
2 バリエーション
DeepSeek-VL2
3 バリエーション
DeepSeek-R1
8 バリエーション
Janus
3 バリエーション
DeepSeek-R1-0528
1 バリエーション
DeepSeek-V3.1
1 バリエーション
DeepSeek-Prover-V2
2 バリエーション
DeepSeekMath-V2
1 バリエーション
家系図
現在のモデル: DeepSeek-V3.2