Phi-4-mini
ベースモデルofficialtext-generationfunction-callingmultilinguallong-contextreasoningopen-source
2025年2月公開。3.8Bパラメータ。128Kコンテキスト。待望の関数呼び出し機能対応。語彙サイズ200K(32K→200K)でGQA追加、多言語サポート大幅強化。Llama 3.1 8B、Ministral-2410 8Bを上回る。mini-reasoning、mini-flash-reasoningなど推論特化バリアントも展開。
技術仕様
アーキテクチャ
32-layer Transformer, hidden 3072, GQA (24 Q / 8 KV heads), Vocab 200K, RoPE, Function calling
パラメータバリエーション
Phi-4-mini-flash-reasoning(3.8B)
HuggingFace2025年7月リリース。Hybrid SambaY(Transformer+State-space)採用。2〜3倍低レイテンシ、最大10倍スループット。AIME 2024で52.29%達成。
VRAM8GB
GGUFファイルは登録されていません
関連モデル
家系図
現在のモデル: Phi-4-mini