DeepSeek-V3.2

ベースモデル
開発者
DeepSeek AI
ライセンス
MIT
リリース日
2025/12/1
コンテキスト長
128,000 トークン
対応言語
en, zh
知識カットオフ
2025-Q4
ベースモデル
deepseek-v3-1
officialtext-generationmoesparse-attentioncompetitionopen-source

DeepSeek AIのV3.2モデル。2025年12月1日公開。DeepSeek Sparse Attention(DSA)を導入し、より効率的なアテンション機構を実現。GPT-5/Gemini-3.0-Pro相当の性能。IMO 2025、IOI 2025で金メダル達成。685Bパラメータ。MITライセンス。

技術仕様

アーキテクチャ

MoE with DeepSeek Sparse Attention (DSA), Efficient long-context attention

パラメータバリエーション

DeepSeek-V3.2(685B)

HuggingFace

DeepSeek Sparse Attention搭載。IMO/IOI 2025金メダル達成。

MoEアクティブパラメータ: ~40B
VRAM1.4TB

GGUFファイルは登録されていません

家系図

現在のモデル: DeepSeek-V3.2