GLM-4.5

ベースモデル
開発者
Zhipu AI / Tsinghua University
ライセンス
MIT License
リリース日
2025/7/28
コンテキスト長
128,000 トークン
トレーニングトークン
23T
対応言語
zh, en
officialmoeagentreasoningcoding

エージェント・推論・コーディング(ARC)に特化した次世代フラッグシップMoEモデル。355B総パラメータ、32B活性化。23兆トークンで学習。Thinking/Non-Thinkingモード切替対応。12ベンチマーク平均で全モデル中3位。

技術仕様

アーキテクチャ

Mixture of Experts (355B total / 32B active)

パラメータバリエーション

GLM-4.5(355B)

HuggingFace

フラッグシップMoEモデル。Thinking/Non-Thinkingモード対応。

MoEアクティブパラメータ: 32B
VRAM700GB
RAM1TB+

GGUFファイルは登録されていません

GLM-4.5-Air(106B)

HuggingFace

軽量版MoEモデル。106B総パラメータ、12B活性化。

MoEアクティブパラメータ: 12B
VRAM220GB
RAM400GB

GGUFファイルは登録されていません

GLM-4.5V(106B)

HuggingFace

ビジョン-言語モデル版。106Bパラメータ。

MoEアクティブパラメータ: 12B
VRAM220GB
RAM400GB

GGUFファイルは登録されていません

家系図

現在のモデル: GLM-4.5