Qwen3-Coder
指示チューニングofficialcodingmoe
2025年7月22日公開。7.5兆トークン(70%コード)で学習したコード特化MoEモデル。100以上のプログラミング言語をサポート。256Kネイティブコンテキスト(1Mまで拡張可能)。SWE-Bench Verifiedで67-69.6%を達成しオープンSOTA。160エキスパート、8選択のMoEアーキテクチャ。
ベンチマーク
aider-polyglot
61.8
swe-bench-verified
69.6
livecodebnech-v5
59
scicode
36
ソース: Qwen3-Coder Blog 2025-07
技術仕様
アーキテクチャ
MoE (160 experts, 8 selected per token)
プロンプトテンプレート
フォーマット: chatml
システムプロンプト:
<|im_start|>system
{system}<|im_end|>ユーザープロンプト:
<|im_start|>user
{prompt}<|im_end|>アシスタントプロンプト:
<|im_start|>assistant
ストップトークン:
<|im_end|>パラメータバリエーション
Qwen3-Coder 30B-A3B(30B/3.3B)
HuggingFace軽量MoE版。3.3Bアクティブで高効率。
MoEアクティブパラメータ: 3.3B / 160 エキスパート数
VRAM60GB
GGUFファイルは登録されていません
Qwen3-Coder 480B-A35B(480B/35B)
HuggingFaceフラッグシップMoE版。SWE-Bench Verified 69.6%でオープンSOTA。
MoEアクティブパラメータ: 35B / 160 エキスパート数
VRAM250GB
GGUFファイルは登録されていません
関連モデル
家系図
現在のモデル: Qwen3-Coder