Phi-3.5

ベースモデル
開発者
Microsoft Research
ライセンス
MIT
リリース日
2024/8/20
コンテキスト長
128,000 トークン
トレーニングトークン
3.4T
対応言語
ar, zh, cs, da, nl, en, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr, uk
知識カットオフ
2023-10
ベースモデル
phi-3
officialtext-generationvisionmoemultilinguallong-contextopen-source

2024年8月公開。Phi-3の多言語・MoE拡張版。mini(3.8B、多言語強化)、MoE(42B/6.6B活性化)、vision(4.2B)の3モデル。23言語対応(日本語含む)。128Kコンテキスト。Phi-3.5-MoEはLlama 3.1 8B、Mixtralを上回り、Gemini-1.5-Flash、GPT-4o-miniに匹敵。

技術仕様

アーキテクチャ

Dense Transformer (mini/vision), MoE 16 experts (MoE)

パラメータバリエーション

Phi-3.5-mini Instruct(3.8B)

HuggingFace

多言語サポート大幅強化版。23言語対応。

VRAM8GB

GGUFファイルは登録されていません

Phi-3.5-MoE Instruct(42B)

HuggingFace

16エキスパートMoE。6.6B活性化で高効率推論。Llama 3.1 8B超。

MoEアクティブパラメータ: 6.6B
VRAM85GB

GGUFファイルは登録されていません

Phi-3.5-vision Instruct(4.2B)

HuggingFace

マルチモーダル。画像理解、OCR、チャート・表解析。

VRAM10GB

GGUFファイルは登録されていません

家系図

現在のモデル: Phi-3.5