Llama 4
ベースモデル2025年4月5日公開。Mixture of Experts(MoE)アーキテクチャとEarly Fusionによるネイティブマルチモーダルを採用した第4世代。Scout(16エキスパート、10Mコンテキスト)とMaverick(128エキスパート、1Mコンテキスト)を公開。学習データには公開データに加え、Instagram/Facebookの公開投稿やMeta AIとの対話などMetaプロダクト由来情報を含む。EUでのマルチモーダル利用に制限あり。
技術仕様
アーキテクチャ
Mixture of Experts (MoE) + Early Fusion Multimodal
パラメータバリエーション
Llama 4 Scout(17B/109B)
HuggingFace17Bアクティブ/109B総パラメータ。16エキスパート構成。10Mトークンの超長コンテキスト。約40兆トークンで学習。画像・動画・テキストのネイティブマルチモーダル。
GGUFファイルは登録されていません
Llama 4 Maverick(17B/400B)
HuggingFace17Bアクティブ/400B総パラメータ。128エキスパート構成。1Mトークンのコンテキスト。約22兆トークンで学習。高密度な知識と複雑な推論に特化。
GGUFファイルは登録されていません
Llama 4 Behemoth(288B/2T)
HuggingFace288Bアクティブ/2T総パラメータを持つLlama史上最大のMoEモデル。プレビュー段階。STEMベンチマークでGPT-4.5、Claude Sonnetを上回る性能を目標。
GGUFファイルは登録されていません
関連モデル
LLaMA 1
4 バリエーション
Llama 2
6 バリエーション
Code Llama
4 バリエーション
Llama Guard 1
1 バリエーション
Spirit-LM
2 バリエーション
Swallow (Llama 2)
3 バリエーション
Llama 3
4 バリエーション
Llama Guard 2
1 バリエーション
Swallow (Llama 3)
2 バリエーション
ELYZA Japanese
1 バリエーション
Llama 3.1
6 バリエーション
Llama Guard 3
3 バリエーション
Swallow (Llama 3.1)
2 バリエーション
DeepSeek-R1-Distill-Llama
2 バリエーション
Llama 3.2
8 バリエーション
Llama 3.3
1 バリエーション
Swallow (Llama 3.3)
1 バリエーション
Llama Guard 4
1 バリエーション
家系図
現在のモデル: Llama 4