DeepSeek-Coder
ベースモデルofficialcode-generationfill-in-middlemultilingual-code
DeepSeek AIのコード特化LLM。2023年11月2日公開。2兆トークン(87%コード、13%自然言語)で学習。87プログラミング言語対応。Fill-in-the-Middle(FIM)学習でコード補完に対応。16Kコンテキスト。
ベンチマーク
HumanEval
56.1
mbpp
70.1
humaneval-instruct-33b
78.7
ソース: https://arxiv.org/abs/2401.14196
技術仕様
アーキテクチャ
LLaMA-style decoder-only Transformer, Fill-in-the-Middle (FIM) training, Repository-level code understanding, 87 programming languages
パラメータバリエーション
DeepSeek-Coder 5.7B MQA Base(5.7B)
HuggingFace5.7Bベースモデル。Multi-Query Attention採用。
VRAM14GB
GGUFファイルは登録されていません
DeepSeek-Coder 33B Instruct(33B)
HuggingFace33B指示チューニング版。HumanEval 78.7%達成。
VRAM70GB
GGUFファイルは登録されていません
関連モデル
DeepSeek-LLM
4 バリエーション
DeepSeekMoE
2 バリエーション
DeepSeek-Math
3 バリエーション
DeepSeek-VL
2 バリエーション
DeepSeek-V2
4 バリエーション
DeepSeek-Coder-V2
4 バリエーション
DeepSeek-Prover
1 バリエーション
DeepSeek-V2.5
1 バリエーション
DeepSeek-V3
2 バリエーション
DeepSeek-VL2
3 バリエーション
DeepSeek-R1
8 バリエーション
Janus
3 バリエーション
DeepSeek-R1-0528
1 バリエーション
DeepSeek-V3.1
1 バリエーション
DeepSeek-Prover-V2
2 バリエーション
DeepSeekMath-V2
1 バリエーション
DeepSeek-V3.2
1 バリエーション
家系図
現在のモデル: DeepSeek-Coder