EmbeddingGemma
ベースモデルofficialembeddingmultilingualretrievaledge
2025年9月4日公開。Gemma 3ベースの埋め込みモデル。MTEB Multilingual 500M以下カテゴリで1位。768次元(Matryoshka: 128-768)の埋め込みベクトル出力。QAT(Quantization-Aware Training)で200MB未満のRAMで動作。100+言語対応。オンデバイス検索・RAGに最適。
ベンチマーク
mteb-multilingual
1
ソース: https://developers.googleblog.com/en/introducing-embeddinggemma/
技術仕様
アーキテクチャ
Gemma 3 base, Quantization-Aware Training (QAT), Matryoshka Representation Learning, 768-dim embeddings
パラメータバリエーション
EmbeddingGemma 308M(308M)
HuggingFace軽量埋め込みモデル。QATで200MB未満のRAMで動作。MTEB Multilingual 500M以下で1位。
RAM<200MB
GGUFファイルは登録されていません
関連モデル
家系図
現在のモデル: EmbeddingGemma