DeepSeek-Coder-V2
ファインチューニングofficialcode-generationmoelong-contextmathmultilingual-code
DeepSeek AIの第2世代コードMoEモデル。2024年6月17日公開。DeepSeek-V2ベースに追加6兆トークン(60%コード、10%数学、30%自然言語)で学習。338プログラミング言語対応、128Kコンテキスト。HumanEval 90.2%、MATH 75.7%達成。
ベンチマーク
HumanEval
90.2
MATH
75.7
mbpp-plus
76.2
ソース: https://arxiv.org/abs/2406.11931
技術仕様
アーキテクチャ
MoE based on DeepSeek-V2, 338 programming languages support
パラメータバリエーション
DeepSeek-Coder-V2-Lite Base(16B)
HuggingFace16B総パラメータ、24億活性化の軽量版。
MoEアクティブパラメータ: 2.4B
VRAM35GB
GGUFファイルは登録されていません
DeepSeek-Coder-V2-Lite Instruct(16B)
HuggingFaceLite指示チューニング版。
MoEアクティブパラメータ: 2.4B
VRAM35GB
GGUFファイルは登録されていません
DeepSeek-Coder-V2 Base(236B)
HuggingFace236B総パラメータ、210億活性化のフラッグシップ。
MoEアクティブパラメータ: 21B
VRAM500GB
GGUFファイルは登録されていません
DeepSeek-Coder-V2 Instruct(236B)
HuggingFace236B指示チューニング版。HumanEval 90.2%、MATH 75.7%達成。
MoEアクティブパラメータ: 21B
VRAM500GB
GGUFファイルは登録されていません
関連モデル
DeepSeek-LLM
4 バリエーション
DeepSeek-Coder
7 バリエーション
DeepSeekMoE
2 バリエーション
DeepSeek-Math
3 バリエーション
DeepSeek-VL
2 バリエーション
DeepSeek-V2
4 バリエーション
DeepSeek-Prover
1 バリエーション
DeepSeek-V2.5
1 バリエーション
DeepSeek-V3
2 バリエーション
DeepSeek-VL2
3 バリエーション
DeepSeek-R1
8 バリエーション
Janus
3 バリエーション
DeepSeek-R1-0528
1 バリエーション
DeepSeek-V3.1
1 バリエーション
DeepSeek-Prover-V2
2 バリエーション
DeepSeekMath-V2
1 バリエーション
DeepSeek-V3.2
1 バリエーション
家系図
現在のモデル: DeepSeek-Coder-V2