QwQ

指示チューニング
開発者
Alibaba Cloud / Qwen Team
ライセンス
Apache 2.0
リリース日
2025/3/6
コンテキスト長
131,072 トークン
対応言語
en, zh, es, fr, de, ar, ru, ko, ja, th, vi, pt, it, hi, id
知識カットオフ
2024-12
ベースモデル
Qwen2.5-32B
officialmath

2025年3月6日公開(Preview: 2024年11月28日)。推論特化モデル「Qwen with Questions」。o1-miniを大幅に上回る性能(AIME24: 79.5% vs 63.6%、LiveCodeBench: 63.4% vs 53.8%)。Chain-of-Thought推論で複雑な問題を段階的に解決。128Kコンテキスト、29言語以上対応。

ベンチマーク

GPQA
65.2
IFEval
83.9
aime24
79.5
livecodebnech
63.4
livebench
73.1
math-500
90.6

ソース: QwQ Blog 2025-03

技術仕様

アーキテクチャ

32.5B parameters, Transformer decoder-only, RoPE, SwiGLU, RMSNorm, GQA, YaRN

プロンプトテンプレート

フォーマット: chatml-reasoning
システムプロンプト:
<|im_start|>system
You are a helpful and harmless assistant. You are Qwen developed by Alibaba. You should think step-by-step.<|im_end|>
ユーザープロンプト:
<|im_start|>user
{prompt}<|im_end|>
アシスタントプロンプト:
<|im_start|>assistant
<think>
{reasoning}</think>
{response}<|im_end|>
ストップトークン:
<|im_start|><|im_end|>

パラメータバリエーション

QwQ-32B(32B)

HuggingFace

正式版。128Kコンテキスト。o1-mini超えの推論能力。

VRAM65GB

GGUFファイルは登録されていません

QwQ-32B-Preview(32B)

HuggingFace

プレビュー版。32Kコンテキスト。

VRAM65GB

GGUFファイルは登録されていません

家系図

現在のモデル: QwQ