Qwen3-Embedding

ベースモデル
開発者
Alibaba Cloud / Qwen Team
ライセンス
Apache 2.0
リリース日
2025/6/5
コンテキスト長
32,768 トークン
対応言語
en, zh, es, fr, de, ar, ru, ko, ja, th, vi, pt, it, hi, id
ベースモデル
Qwen3
officialmultilingual

2025年6月5日公開。Qwen3ベースの埋め込みモデル。MTEB Multilingual Overallで#1(70.58)を達成。100以上の自然言語・プログラミング言語をサポート。Matryoshka Representation Learning(MRL)による可変次元埋め込み、LoRAファインチューニングに対応。Rerankerモデルも提供。

ベンチマーク

mteb-multilingual
70.58
mteb-english-v2
75.22
c-mteb-chinese
73.84
mteb-code
80.68
retrieval
70.88
sts
81.08
classification
74

ソース: Qwen3-Embedding Technical Report (arXiv:2506.05176)

技術仕様

アーキテクチャ

Dense Transformer decoder (Qwen3), Dual-encoder, Last token pooling (EOS), Matryoshka Representation Learning (MRL)

プロンプトテンプレート

フォーマット: instruct-embedding
ユーザープロンプト:
Instruct: {task_description}
Query: {query}

パラメータバリエーション

Qwen3-Embedding 0.6B(0.6B)

HuggingFace

軽量版。1024次元埋め込み。

VRAM2GB

GGUFファイルは登録されていません

Qwen3-Embedding 4B(4B)

HuggingFace

標準版。2560次元埋め込み。

VRAM10GB

GGUFファイルは登録されていません

Qwen3-Embedding 8B(8B)

HuggingFace

フラッグシップ版。4096次元埋め込み。MTEB #1。

VRAM18GB

GGUFファイルは登録されていません

Qwen3-Reranker 0.6B(0.6B)

HuggingFace

軽量Reranker版。

VRAM2GB

GGUFファイルは登録されていません

Qwen3-Reranker 4B(4B)

HuggingFace

標準Reranker版。

VRAM10GB

GGUFファイルは登録されていません

Qwen3-Reranker 8B(8B)

HuggingFace

フラッグシップReranker版。

VRAM18GB

GGUFファイルは登録されていません

家系図

現在のモデル: Qwen3-Embedding