Gemma 3n

ベースモデル
開発者
Google DeepMind
ライセンス
Gemma Terms of Use
リリース日
2025/6/26
コンテキスト長
32,000 トークン
対応言語
en, zh, ja, ko, de, fr, es, pt, it, ru, ar, hi, th, vi, id
知識カットオフ
2025
ベースモデル
gemma3
officialtext-generationvisionaudiovideomultilingualmobileedge

2025年6月26日公開(プレビュー5月20日)。モバイルファースト設計のマルチモーダルモデル。MatFormer(Matryoshka Transformer)採用でエラスティック推論を実現。Per-Layer Embeddings(PLE)でCPU効率化。テキスト+画像+音声+動画に対応。140+言語(テキスト)、35言語(マルチモーダル)対応。10B未満で初のLMArena Elo 1300+達成。Pixelデバイスで60FPS動画処理可能。

ベンチマーク

lmarena-elo
1300
gsm8k
83
wmt24-chrf
50.1

ソース: https://developers.googleblog.com/en/introducing-gemma-3n-developer-guide/

技術仕様

アーキテクチャ

MatFormer (Matryoshka Transformer), Per-Layer Embeddings (PLE), LAuReL, AltUp, KV Cache Sharing, MobileNet-V5-300M vision encoder, USM audio encoder

パラメータバリエーション

Gemma 3n E2B Instruct(5B/2B)

HuggingFace

軽量版。実パラメータ5B、実効パラメータ2B。2GB RAM。

MoEアクティブパラメータ: 2B
VRAM2GB
RAM2GB

GGUFファイルは登録されていません

Gemma 3n E4B Instruct(8B/4B)

HuggingFace

標準版。実パラメータ8B、実効パラメータ4B。3GB RAM。LMArena Elo 1300+達成。

MoEアクティブパラメータ: 4B
VRAM3GB
RAM3GB

GGUFファイルは登録されていません

家系図

現在のモデル: Gemma 3n