Llama 3.3

指示チューニング
開発者
Meta
ライセンス
Llama 3.3 Community License
リリース日
2024/12/6
コンテキスト長
128,000 トークン
トレーニングトークン
15T+
対応言語
en, de, fr, it, pt, hi, es, th
知識カットオフ
2023-12
ベースモデル
meta-llama/Llama-3.1-70B
officialcodingmathmultilinguallong-context

2024年12月6日公開。70Bパラメータで405Bモデルに匹敵する性能を実現した効率特化モデル。Llama 3.1 405Bからの蒸留技術と最新のポストトレーニング技術を70Bサイズに凝縮。Instruction-tuned版のみ提供。MATH (CoT)では77.0%とLlama 3.1 405Bの73.8%を上回る。

ベンチマーク

MMLU
86
MMLU-Pro
55
HumanEval
88.4
MATH
77
GPQA
50.5
IFEval
92.1

ソース: Meta Official Model Card 2024-12

技術仕様

アーキテクチャ

Auto-regressive Transformer (GQA, SFT + RLHF)

プロンプトテンプレート

フォーマット: llama-3
システムプロンプト:
<|start_header_id|>system<|end_header_id|>

{system}<|eot_id|>
ユーザープロンプト:
<|start_header_id|>user<|end_header_id|>

{prompt}<|eot_id|>
アシスタントプロンプト:
<|start_header_id|>assistant<|end_header_id|>

ストップトークン:
<|eot_id|><|end_of_text|>

パラメータバリエーション

Llama 3.3 70B Instruct(70B)

HuggingFace

70Bで405B相当の性能。Instructのみ提供。

VRAM40GB
RAM140GB

GGUFファイルは登録されていません

家系図

現在のモデル: Llama 3.3