Llama 4

ベースモデル
開発者
Meta
ライセンス
Llama 4 Community License
リリース日
2025/4/5
対応言語
en, ar, de, es, fr, hi, id, it, pt, th, tl, vi
知識カットオフ
2024-08

2025年4月5日公開。Mixture of Experts(MoE)アーキテクチャとEarly Fusionによるネイティブマルチモーダルを採用した第4世代。Scout(16エキスパート、10Mコンテキスト)とMaverick(128エキスパート、1Mコンテキスト)を公開。学習データには公開データに加え、Instagram/Facebookの公開投稿やMeta AIとの対話などMetaプロダクト由来情報を含む。EUでのマルチモーダル利用に制限あり。

技術仕様

アーキテクチャ

Mixture of Experts (MoE) + Early Fusion Multimodal

パラメータバリエーション

Llama 4 Scout(17B/109B)

HuggingFace

17Bアクティブ/109B総パラメータ。16エキスパート構成。10Mトークンの超長コンテキスト。約40兆トークンで学習。画像・動画・テキストのネイティブマルチモーダル。

MoEアクティブパラメータ: 17B / 16 エキスパート数

GGUFファイルは登録されていません

Llama 4 Maverick(17B/400B)

HuggingFace

17Bアクティブ/400B総パラメータ。128エキスパート構成。1Mトークンのコンテキスト。約22兆トークンで学習。高密度な知識と複雑な推論に特化。

MoEアクティブパラメータ: 17B / 128 エキスパート数

GGUFファイルは登録されていません

Llama 4 Behemoth(288B/2T)

HuggingFace

288Bアクティブ/2T総パラメータを持つLlama史上最大のMoEモデル。プレビュー段階。STEMベンチマークでGPT-4.5、Claude Sonnetを上回る性能を目標。

MoEアクティブパラメータ: 288B

GGUFファイルは登録されていません

家系図

現在のモデル: Llama 4