Phi-3

ベースモデル
開発者
Microsoft Research
ライセンス
MIT
リリース日
2024/4/23
コンテキスト長
128,000 トークン
トレーニングトークン
3.3T (mini), 4.8T (small/medium)
対応言語
en
知識カットオフ
2024-Q1
ベースモデル
phi-2
officialtext-generationvisionlong-contexton-deviceopen-source

2024年4月公開(Microsoft Build 2024)。初の商用対応SLM。mini(3.8B)、small(7B)、medium(14B)、vision(4.2B)の4サイズ展開。SFT、DPO、RLHFで安全性強化。スマートフォン上で実行可能。Phi-3-miniはMixtral 8x7B、GPT-3.5に匹敵。

ベンチマーク

MMLU
69
HumanEval
58.5
GPQA
29.2
hellaswag
77.4
arc-c
85.7
mt-bench
8.38

ソース: https://arxiv.org/abs/2404.14219

技術仕様

アーキテクチャ

Dense decoder-only Transformer, SFT + DPO + RLHF

プロンプトテンプレート

フォーマット: phi-3
システムプロンプト:
<|system|>
{system_prompt}<|end|>
ユーザープロンプト:
<|user|>
{user_message}<|end|>
アシスタントプロンプト:
<|assistant|>
{assistant_response}<|end|>
ストップトークン:
<|end|><|endoftext|>

パラメータバリエーション

Phi-3-mini 4K Instruct(3.8B)

HuggingFace

3.8Bパラメータ、4Kコンテキスト。スマートフォンで実行可能。

VRAM8GB

GGUFファイルは登録されていません

Phi-3-mini 128K Instruct(3.8B)

HuggingFace

3.8Bパラメータ、128Kコンテキスト。長文対応版。

VRAM8GB

GGUFファイルは登録されていません

Phi-3-small 8K Instruct(7B)

HuggingFace

7Bパラメータ、8Kコンテキスト。GPT-3.5Tを上回る。

VRAM15GB

GGUFファイルは登録されていません

Phi-3-small 128K Instruct(7B)

HuggingFace

7Bパラメータ、128Kコンテキスト。

VRAM15GB

GGUFファイルは登録されていません

Phi-3-medium 4K Instruct(14B)

HuggingFace

14Bパラメータ。Gemini 1.0 Proを上回る。MMLU 78%達成。

VRAM30GB

GGUFファイルは登録されていません

Phi-3-medium 128K Instruct(14B)

HuggingFace

14Bパラメータ、128Kコンテキスト。

VRAM30GB

GGUFファイルは登録されていません

Phi-3-vision 128K Instruct(4.2B)

HuggingFace

4.2Bパラメータ。マルチモーダル対応。Claude-3 Haikuを上回る。

VRAM10GB

GGUFファイルは登録されていません

家系図

現在のモデル: Phi-3