Code Llama

ファインチューニング
開発者
Meta
ライセンス
Llama 2 Community License
リリース日
2023/8/24
コンテキスト長
100,000 トークン
トレーニングトークン
500B (base) / 1T (70B)
対応言語
en
ベースモデル
meta-llama/Llama-2
officialcoding

2023年8月24日公開(70Bは2024年1月追加)。Llama 2をベースに500億コードトークンで追加学習したコード特化モデル。16Kトークンで学習し、推論時は最大100Kトークンをサポート。Base、Python特化、Instructの3バリエーション。Infilling(FIM:コード穴埋め)機能対応(7B/13B/70B)。HumanEval最大67.8%、MBPP最大65.6%達成。

技術仕様

アーキテクチャ

Transformer with GQA (RoPE拡張: θ=1M)

パラメータバリエーション

Code Llama 7B(7B)

HuggingFace

軽量コーディングモデル。Infilling対応。Base/Python/Instructの3バリエーション。

GGUFファイルは登録されていません

Code Llama 13B(13B)

HuggingFace

中規模コーディングモデル。Infilling対応。Base/Python/Instructの3バリエーション。

GGUFファイルは登録されていません

Code Llama 34B(34B)

HuggingFace

大規模コーディングモデル。Infilling非対応。HumanEval 51.8%、MBPP 55%達成。Base/Python/Instructの3バリエーション。

GGUFファイルは登録されていません

Code Llama 70B(70B)

HuggingFace

最大コーディングモデル。2024年1月追加。1兆トークンで学習。Infilling対応。HumanEval 67.8%達成。

GGUFファイルは登録されていません

家系図

現在のモデル: Code Llama