Phi-4-mini

ベースモデル
開発者
Microsoft Research
ライセンス
MIT
リリース日
2025/2/26
コンテキスト長
128,000 トークン
対応言語
en, fr, de, es, it, ja, ko, zh
知識カットオフ
2025-Q1
ベースモデル
phi-4
officialtext-generationfunction-callingmultilinguallong-contextreasoningopen-source

2025年2月公開。3.8Bパラメータ。128Kコンテキスト。待望の関数呼び出し機能対応。語彙サイズ200K(32K→200K)でGQA追加、多言語サポート大幅強化。Llama 3.1 8B、Ministral-2410 8Bを上回る。mini-reasoning、mini-flash-reasoningなど推論特化バリアントも展開。

技術仕様

アーキテクチャ

32-layer Transformer, hidden 3072, GQA (24 Q / 8 KV heads), Vocab 200K, RoPE, Function calling

パラメータバリエーション

Phi-4-mini Instruct(3.8B)

HuggingFace

関数呼び出し対応。指示追従・長文理解大幅改善。

VRAM8GB

GGUFファイルは登録されていません

Phi-4-mini-reasoning(3.8B)

HuggingFace

2025年5月リリース。軽量推論モデル。128Kコンテキスト。

VRAM8GB

GGUFファイルは登録されていません

Phi-4-mini-flash-reasoning(3.8B)

HuggingFace

2025年7月リリース。Hybrid SambaY(Transformer+State-space)採用。2〜3倍低レイテンシ、最大10倍スループット。AIME 2024で52.29%達成。

VRAM8GB

GGUFファイルは登録されていません

家系図

現在のモデル: Phi-4-mini