Llama

開発者: Meta

Metaが開発する大規模言語モデル(LLM)シリーズ。2023年2月のLLaMA 1から始まり、オープンソースLLM革命を牽引。Llama 4ではMixture of Experts(MoE)とネイティブマルチモーダルを採用し、最大10Mトークンのコンテキストを実現。派生モデルとしてCode Llama(コード特化)、Llama Guard(安全性分類)も提供。

家系図

モデル一覧 (19)

LLaMA 1

2023年2月24日公開。Metaの初代大規模言語モデル。公開データのみで学習し、LLaMA-13BがGPT-3 (175B)を多くのベンチマークで上回る効率性を実証。オープンソースLLM革命の起点となった歴史的モデル。Chinchillaスケーリング則に基づく「オーバー・トレーニング」アプローチを採用。

4 バリエーション2023/2/24
ベースモデル

Llama 2

2023年7月18日公開。商用利用を解禁した第2世代モデル。コンテキスト長を4Kに倍増、2兆トークンで学習。70Bモデルには推論効率向上のためGQA(Grouped-Query Attention)を初採用。Chat版はSFT+RLHFで人間の好みに合わせて調整。学習データにMeta製品・サービスのデータは含まない。

6 バリエーション2023/7/18
ベースモデル

Code Llama

2023年8月24日公開(70Bは2024年1月追加)。Llama 2をベースに500億コードトークンで追加学習したコード特化モデル。16Kトークンで学習し、推論時は最大100Kトークンをサポート。Base、Python特化、Instructの3バリエーション。Infilling(FIM:コード穴埋め)機能対応(7B/13B/70B)。HumanEval最大67.8%、MBPP最大65.6%達成。

4 バリエーション2023/8/24
ファインチューニング

Llama Guard 1

Purple Llamaプロジェクトの初代安全性分類器。Llama 2-7Bをベースに、有害な入出力を7つのカテゴリで分類。

1 バリエーション2023/12/7
ファインチューニング

Spirit-LM

Metaが開発したマルチモーダル言語モデル。テキストと音声を自由に混在して処理可能。Llama 2をベースに、音声トークンを追加学習することで、テキストから音声、音声からテキストへのシームレスな変換を実現。表現豊かな音声生成が可能。

2 バリエーション2024/2/8
ファインチューニング

Swallow (Llama 2)

東京工業大学と産業技術総合研究所が開発した日本語特化モデル。Llama 2をベースに日本語データで継続事前学習を行い、日本語性能を大幅に向上。

3 バリエーション2023/12/19
ファインチューニング

Llama 3

2024年4月18日公開。語彙サイズを128Kトークンに4倍拡大し、15兆トークン以上で学習した第3世代モデル。全サイズでGQA採用。8Bモデルで従来のLlama 2 70Bに匹敵する性能を実現。事前学習・微調整ともにMetaユーザーデータを含まないことを明言。

4 バリエーション2024/4/18
ベースモデル

Llama Guard 2

Llama 3-8Bベースの安全性分類器。11の安全性カテゴリに拡張。MLCommons標準に準拠。

1 バリエーション2024/4/18
ファインチューニング

Swallow (Llama 3)

Llama 3をベースにした日本語特化モデル。GQA採用により効率的な推論が可能。

2 バリエーション2024/4/25
ファインチューニング

ELYZA Japanese

ELYZA社が開発した日本語特化モデル。Llama 3をベースに日本語データで追加学習を行い、日本語での自然な対話や文章生成に優れた性能を発揮。商用利用可能。

1 バリエーション2024/3/1
ファインチューニング

Llama 3.1

2024年7月23日公開。コンテキスト長を128Kトークンに16倍拡張。405Bパラメータの史上最大オープンウェイトモデルを投入し、GPT-4oやClaude 3.5 Sonnetと同等の性能を達成。8言語の多言語対応とツール統合機能を実装。16,000基以上のH100 GPUで学習(405B)。合成データ生成やモデル蒸留の親モデルとしても活用推奨。

6 バリエーション2024/7/23
ベースモデル

Llama Guard 3

Llama 3.1/3.2ベースの安全性分類器。13カテゴリ+S14(Code Interpreter Abuse)対応。多言語・128Kコンテキスト対応。Vision版も提供。

3 バリエーション2024/7/23
ファインチューニング

Swallow (Llama 3.1)

Llama 3.1をベースにした日本語特化モデル。128Kコンテキスト対応。

2 バリエーション2024/8/1
ファインチューニング

DeepSeek-R1-Distill-Llama

DeepSeek社がDeepSeek-R1の推論能力をLlama 3ベースモデルに蒸留したモデル。長い思考連鎖(Chain-of-Thought)による高度な推論能力を持ち、数学・コーディング・論理的推論タスクで優れた性能を発揮。

2 バリエーション2025/1/20
ファインチューニング

Llama 3.2

2024年9月25日公開。エッジ/モバイル向け軽量テキストモデル(1B/3B)と初のマルチモーダルVisionモデル(11B/90B)を投入。軽量モデルはLlama 3.1 8Bからの構造化プルーニングと知識蒸留で開発。Visionモデルは60億画像-テキストペアで学習。Qualcomm・MediaTekと提携しモバイル最適化。Visionモデルは画像+テキスト入力に対応(EU制限あり)。

8 バリエーション2024/9/25
ベースモデル

Llama 3.3

2024年12月6日公開。70Bパラメータで405Bモデルに匹敵する性能を実現した効率特化モデル。Llama 3.1 405Bからの蒸留技術と最新のポストトレーニング技術を70Bサイズに凝縮。Instruction-tuned版のみ提供。MATH (CoT)では77.0%とLlama 3.1 405Bの73.8%を上回る。

1 バリエーション2024/12/6
指示チューニング

Swallow (Llama 3.3)

Llama 3.3 70Bをベースにした最新の日本語特化モデル。高い性能と128Kコンテキスト対応。

1 バリエーション2024/12/15
ファインチューニング

Llama 4

2025年4月5日公開。Mixture of Experts(MoE)アーキテクチャとEarly Fusionによるネイティブマルチモーダルを採用した第4世代。Scout(16エキスパート、10Mコンテキスト)とMaverick(128エキスパート、1Mコンテキスト)を公開。学習データには公開データに加え、Instagram/Facebookの公開投稿やMeta AIとの対話などMetaプロダクト由来情報を含む。EUでのマルチモーダル利用に制限あり。

3 バリエーション2025/4/5
ベースモデル

Llama Guard 4

Llama 4 ScoutからPruningしたネイティブマルチモーダル安全性分類器。テキスト+複数画像対応。12言語対応。

1 バリエーション2025/4/5
ファインチューニング