Phi

開発者: Microsoft Research

Microsoft Researchが開発するSmall Language Models(SLM)シリーズ。「Textbooks Are All You Need」コンセプトのもと、高品質合成データと教科書品質データで学習し、パラメータ数の数倍大きなモデルに匹敵する性能を実現。デバイス上での実行、低レイテンシ推論、プライバシー優先のアプリケーションに最適化。MIT Licenseでオープンソース。

家系図

モデル一覧 (8)

Phi-1

Microsoft Research初の「Textbooks Are All You Need」モデル。2023年6月公開。1.3Bパラメータながら、Pythonコード生成で当時の最高水準を達成。Webから抽出した教科書品質コードデータ60億+GPT-3.5生成の合成データ10億トークンで学習。高品質データキュレーションの重要性を実証。

2 バリエーション2023/6/1
ベースモデル

Phi-2

2023年12月公開(Microsoft Ignite 2023)。2.7Bパラメータ。1.4兆トークンで学習。知識転移技術によりPhi-1.5の知識を継承。Mistral 7B、LLaMA 2 13Bを多くのベンチマークで上回り、LLaMA-2-70Bを多段階推論タスクで上回る。

1 バリエーション2023/12/12
ベースモデル

Phi-3

2024年4月公開(Microsoft Build 2024)。初の商用対応SLM。mini(3.8B)、small(7B)、medium(14B)、vision(4.2B)の4サイズ展開。SFT、DPO、RLHFで安全性強化。スマートフォン上で実行可能。Phi-3-miniはMixtral 8x7B、GPT-3.5に匹敵。

7 バリエーション2024/4/23
ベースモデル

Phi-3.5

2024年8月公開。Phi-3の多言語・MoE拡張版。mini(3.8B、多言語強化)、MoE(42B/6.6B活性化)、vision(4.2B)の3モデル。23言語対応(日本語含む)。128Kコンテキスト。Phi-3.5-MoEはLlama 3.1 8B、Mixtralを上回り、Gemini-1.5-Flash、GPT-4o-miniに匹敵。

3 バリエーション2024/8/20
ベースモデル

Phi-4

2024年12月公開。推論・数学特化モデル。14Bパラメータ。9.8兆トークン学習。GPT-4o生成の高品質合成データ使用。MMLU 84.8%、MATH 80.4%、HumanEval 82.6%達成。Gemini Pro 1.5を数学競技問題で上回り、GPT-4oを一部推論タスクで上回る。単一GPUまたはNPUラップトップで実行可能。

1 バリエーション2024/12/12
ベースモデル

Phi-4-mini

2025年2月公開。3.8Bパラメータ。128Kコンテキスト。待望の関数呼び出し機能対応。語彙サイズ200K(32K→200K)でGQA追加、多言語サポート大幅強化。Llama 3.1 8B、Ministral-2410 8Bを上回る。mini-reasoning、mini-flash-reasoningなど推論特化バリアントも展開。

3 バリエーション2025/2/26
ベースモデル

Phi-4-multimodal

2025年2月公開。テキスト+画像+音声の3モーダル対応。5.6Bパラメータ。Phi-4-mini(3.8B)バックボーン+SigLIPビジョンエンコーダー(440M)+Conformerスピーチエンコーダー。Mixture-of-LoRAs設計でモダリティ干渉なしに複数推論モードを実現。初のオープンソース音声要約モデル。OpenASR Leaderboard 1位、WhisperV3超のASR性能。

1 バリエーション2025/2/26
ベースモデル

Phi-4-reasoning

2025年4月公開。Phi-4ベースの推論特化モデル。o3-miniの推論デモンストレーションでSFT学習。14Bパラメータで671BのDeepSeek-R1に匹敵。o1-miniを大半のベンチマークで上回り、Claude 3.7 Sonnet、Gemini 2 Flash Thinkingを上回る。Phi-4-reasoning-plusは強化学習(RL)による追加最適化版。

2 バリエーション2025/4/30
ファインチューニング