Qwen3-Coder

指示チューニング
開発者
Alibaba Cloud / Qwen Team
ライセンス
Apache 2.0
リリース日
2025/7/22
コンテキスト長
262,144 トークン
トレーニングトークン
7.5T
対応言語
Python, JavaScript, TypeScript, Java, C++, C, Go, Rust, PHP, Ruby
ベースモデル
Qwen3
officialcodingmoe

2025年7月22日公開。7.5兆トークン(70%コード)で学習したコード特化MoEモデル。100以上のプログラミング言語をサポート。256Kネイティブコンテキスト(1Mまで拡張可能)。SWE-Bench Verifiedで67-69.6%を達成しオープンSOTA。160エキスパート、8選択のMoEアーキテクチャ。

ベンチマーク

aider-polyglot
61.8
swe-bench-verified
69.6
livecodebnech-v5
59
scicode
36

ソース: Qwen3-Coder Blog 2025-07

技術仕様

アーキテクチャ

MoE (160 experts, 8 selected per token)

プロンプトテンプレート

フォーマット: chatml
システムプロンプト:
<|im_start|>system
{system}<|im_end|>
ユーザープロンプト:
<|im_start|>user
{prompt}<|im_end|>
アシスタントプロンプト:
<|im_start|>assistant
ストップトークン:
<|im_end|>

パラメータバリエーション

Qwen3-Coder 30B-A3B(30B/3.3B)

HuggingFace

軽量MoE版。3.3Bアクティブで高効率。

MoEアクティブパラメータ: 3.3B / 160 エキスパート数
VRAM60GB

GGUFファイルは登録されていません

Qwen3-Coder 480B-A35B(480B/35B)

HuggingFace

フラッグシップMoE版。SWE-Bench Verified 69.6%でオープンSOTA。

MoEアクティブパラメータ: 35B / 160 エキスパート数
VRAM250GB

GGUFファイルは登録されていません

家系図

現在のモデル: Qwen3-Coder