TranslateGemma

指示チューニング
開発者
Google DeepMind
ライセンス
Gemma Terms of Use
リリース日
2025/1/14
コンテキスト長
128,000 トークン
トレーニングトークン
4.3B (SFT) + 10.2M (RL)
対応言語
en, zh, ja, ko, de, fr, es, pt, it, ru, ar, hi, cs, nl, pl, tr, vi, th, id
ベースモデル
gemma3
officialtranslationmultilingualvision

2025年1月14日公開。Gemma 3ベースの翻訳特化モデル。55言語ペア対応。SigLIP vision encoder搭載で画像翻訳にも対応。4.3B SFT + 10.2M RLトークンでファインチューニング。12Bモデルは27B Gemma 3ベースラインを上回る翻訳性能を達成。

技術仕様

アーキテクチャ

Gemma 3 base, Translation fine-tuning, SigLIP vision encoder

パラメータバリエーション

TranslateGemma 4B Instruct(4B)

HuggingFace

モバイル/エッジ向け。軽量翻訳モデル。

VRAM10GB

GGUFファイルは登録されていません

TranslateGemma 12B Instruct(12B)

HuggingFace

コンシューマーラップトップ向け。27B Gemma 3を上回る翻訳性能。

VRAM28GB

GGUFファイルは登録されていません

TranslateGemma 27B Instruct(27B)

HuggingFace

クラウド(H100/TPU)向け。最高精度翻訳。

VRAM65GB

GGUFファイルは登録されていません

家系図

現在のモデル: TranslateGemma