LLaMA 1
ベースモデル2023年2月24日公開。Metaの初代大規模言語モデル。公開データのみで学習し、LLaMA-13BがGPT-3 (175B)を多くのベンチマークで上回る効率性を実証。オープンソースLLM革命の起点となった歴史的モデル。Chinchillaスケーリング則に基づく「オーバー・トレーニング」アプローチを採用。
技術仕様
アーキテクチャ
Decoder-only Transformer (RMSNorm, SwiGLU, RoPE)
パラメータバリエーション
LLaMA 7B(6.7B)
軽量モデル。単一GPU推論が可能。1兆トークンで学習。
GGUFファイルは登録されていません
LLaMA 13B(13B)
GPT-3 (175B)を多くのベンチマークで上回る性能を実証。1兆トークンで学習。
GGUFファイルは登録されていません
LLaMA 33B(32.5B)
大規模モデル。1.4兆トークンで学習。30B表記も使用される。
GGUFファイルは登録されていません
LLaMA 65B(65.2B)
最大モデル。Chinchilla 70B相当の性能。1.4兆トークンで学習。
GGUFファイルは登録されていません
関連モデル
Llama 2
6 バリエーション
Code Llama
4 バリエーション
Llama Guard 1
1 バリエーション
Spirit-LM
2 バリエーション
Swallow (Llama 2)
3 バリエーション
Llama 3
4 バリエーション
Llama Guard 2
1 バリエーション
Swallow (Llama 3)
2 バリエーション
ELYZA Japanese
1 バリエーション
Llama 3.1
6 バリエーション
Llama Guard 3
3 バリエーション
Swallow (Llama 3.1)
2 バリエーション
DeepSeek-R1-Distill-Llama
2 バリエーション
Llama 3.2
8 バリエーション
Llama 3.3
1 バリエーション
Swallow (Llama 3.3)
1 バリエーション
Llama 4
3 バリエーション
Llama Guard 4
1 バリエーション
家系図
現在のモデル: LLaMA 1