EmbeddingGemma

ベースモデル
開発者
Google DeepMind
ライセンス
Gemma Terms of Use
リリース日
2025/9/4
コンテキスト長
2,048 トークン
対応言語
en, zh, ja, ko, de, fr, es, pt, it, ru, ar, hi, th, vi, id
ベースモデル
gemma3
officialembeddingmultilingualretrievaledge

2025年9月4日公開。Gemma 3ベースの埋め込みモデル。MTEB Multilingual 500M以下カテゴリで1位。768次元(Matryoshka: 128-768)の埋め込みベクトル出力。QAT(Quantization-Aware Training)で200MB未満のRAMで動作。100+言語対応。オンデバイス検索・RAGに最適。

ベンチマーク

mteb-multilingual
1

ソース: https://developers.googleblog.com/en/introducing-embeddinggemma/

技術仕様

アーキテクチャ

Gemma 3 base, Quantization-Aware Training (QAT), Matryoshka Representation Learning, 768-dim embeddings

パラメータバリエーション

EmbeddingGemma 308M(308M)

HuggingFace

軽量埋め込みモデル。QATで200MB未満のRAMで動作。MTEB Multilingual 500M以下で1位。

RAM<200MB

GGUFファイルは登録されていません

家系図

現在のモデル: EmbeddingGemma