GLM-4-32B-0414

ベースモデル
開発者
Zhipu AI / Tsinghua University
ライセンス
MIT License
リリース日
2025/4/14
コンテキスト長
32,000 トークン
トレーニングトークン
15T
対応言語
zh, en
officialmultilingualagent

32Bパラメータでエージェント機能を強化。15兆トークン(推論型合成データ含む)で学習。OpenAI GPT系、DeepSeek V3/R1に匹敵する性能。RLHF調整済み。YaRN拡張でコンテキスト延長可能。

技術仕様

アーキテクチャ

GLM-4 Transformer (32B Dense)

パラメータバリエーション

GLM-4-32B-Base-0414(32B)

HuggingFace

ベースモデル。15Tデータで事前学習、推論型合成データ含む。

VRAM65GB
RAM128GB

GGUFファイルは登録されていません

GLM-4-32B-0414(32B)

HuggingFace

対話・エージェント用。RLHF調整済み。

VRAM65GB
RAM128GB

GGUFファイルは登録されていません

家系図

現在のモデル: GLM-4-32B-0414