GLM-130B
ベースモデルofficialbilingualfoundation
GLMファミリーの起源となるモデル。100B級のオープンソースモデルとしてGPT-3を上回る性能を初めて実現。双方向Dense TransformerアーキテクチャとAutoregressive Blank Infilling目的関数を採用。ICLR 2023に採択。INT4量子化でRTX 3090×4での推論が可能。
ベンチマーク
MMLU
44.8
ソース: GLM-130B Paper (ICLR 2023)
技術仕様
アーキテクチャ
Bidirectional Dense Transformer (70 layers, 12288 hidden, 96 heads)
パラメータバリエーション
GLM-130B INT4(130B)
HuggingFaceINT4量子化版。RTX 3090 (24G×4)または RTX 2080 Ti (11G×8)で推論可能。
VRAM70GB
RAM140GB
GGUFファイルは登録されていません
関連モデル
家系図
現在のモデル: GLM-130B