GLM-4.7

ベースモデル
開発者
Zhipu AI / Tsinghua University
ライセンス
MIT License
リリース日
2025/12/22
コンテキスト長
205,000 トークン
対応言語
zh, en
officialmoeagentreasoningcodingflagship

最新フラッグシップモデル。オープンソースモデルで初めてClaude Sonnet 4.5に匹敵。コーディング・エージェント能力でオープンソース最高峰。3種の思考モード(Interleaved/Preserved/Turn-level Thinking)搭載。Cerebras上で1500+ tokens/sの高速推論。SWE-bench Verifiedで73.8%、LiveCodeBenchで84.9達成。

ベンチマーク

HumanEval
84.9
GPQA
86

ソース: GLM-4.7 Release Notes

技術仕様

アーキテクチャ

Mixture of Experts (355B-400B total / 32B active)

パラメータバリエーション

GLM-4.7(400B)

HuggingFace

最新フラッグシップ。202K-205Kコンテキスト、最大128K出力。3種の思考モード搭載。

MoEアクティブパラメータ: 32B
VRAM800GB
RAM1TB+

GGUFファイルは登録されていません

GLM-4.7-Flash(400B)

HuggingFace

高速推論版。同等規模でより高速な推論を実現。

MoEアクティブパラメータ: 32B
VRAM800GB
RAM1TB+

GGUFファイルは登録されていません

家系図

現在のモデル: GLM-4.7