Swallow (Llama 2)

ファインチューニング
開発者
東京工業大学 / 産総研
ライセンス
Llama 2 Community License
リリース日
2023/12/19
コンテキスト長
4,096 トークン
対応言語
ja, en
ベースモデル
meta-llama/Llama-2-7b
japanesemultilingual

東京工業大学と産業技術総合研究所が開発した日本語特化モデル。Llama 2をベースに日本語データで継続事前学習を行い、日本語性能を大幅に向上。

技術仕様

アーキテクチャ

Transformer

パラメータバリエーション

Swallow 7B(7B)

HuggingFace

Llama 2 7Bベースの日本語特化モデル。

VRAM6GB
RAM16GB

GGUFファイルは登録されていません

Swallow 13B(13B)

HuggingFace

Llama 2 13Bベースの日本語特化モデル。

VRAM10GB
RAM32GB

GGUFファイルは登録されていません

Swallow 70B(70B)

HuggingFace

Llama 2 70Bベースの日本語特化モデル。高い日本語性能。

VRAM40GB
RAM140GB

GGUFファイルは登録されていません

家系図

現在のモデル: Swallow (Llama 2)