Mistral NeMo

ベースモデル
開発者
Mistral AI
ライセンス
Apache-2.0
リリース日
2024/7/18
コンテキスト長
128,000 トークン
対応言語
en, fr, de, es, it, zh
知識カットオフ
2024-Q2
ベースモデル
mistral-7b
officialtext-generationmultilingualnvidiafp8long-contextopen-source

NVIDIAとの共同開発モデル。2024年7月18日公開。12Bパラメータ。128Kコンテキスト。量子化対応学習でFP8推論でも性能劣化なし。Gemma 2 9B、LLaMA 3 8Bを上回る性能。Mistral 7Bのドロップイン置き換え。中国語処理を大幅改善。

技術仕様

アーキテクチャ

Dense Transformer, FP8 native support, 128K context

パラメータバリエーション

Mistral NeMo Base (2407)(12B)

HuggingFace

ベースモデル。12Bパラメータ。NVIDIAとの共同開発。

VRAM28GB

GGUFファイルは登録されていません

Mistral NeMo Instruct (2407)(12B)

HuggingFace

指示チューニング版。サイズカテゴリで最高水準の性能。

VRAM28GB

GGUFファイルは登録されていません

家系図

現在のモデル: Mistral NeMo