GLM-4-9B

ベースモデル
開発者
Zhipu AI / Tsinghua University
ライセンス
Apache 2.0
リリース日
2024/6/5
コンテキスト長
128,000 トークン
対応言語
zh, en, ja, ko, de, fr, es
officialmultilingualfunction-calling

多言語対応(26言語)を実現した9Bパラメータモデル。128Kコンテキスト、1M版も提供。Berkeley Function Calling LeaderboardでGPT-4 Turbo (2024-04-09)と同等性能。日本語を含む26言語対応。

ベンチマーク

MMLU
74.7
HumanEval
70.1
MATH
30.4

ソース: GLM-4 Technical Report

技術仕様

アーキテクチャ

GLM-4 Transformer

パラメータバリエーション

GLM-4-9B(9B)

HuggingFace

ベースモデル。26言語対応。

VRAM19GB
RAM24GB

GGUFファイルは登録されていません

GLM-4-9B-Chat(9B)

HuggingFace

対話版。128Kコンテキスト対応。Function Call対応。

VRAM19GB
RAM24GB

GGUFファイルは登録されていません

GLM-4-9B-Chat-1M(9B)

HuggingFace

1Mコンテキスト対応版。約200万中国語文字を処理可能。

VRAM32GB
RAM64GB

GGUFファイルは登録されていません

家系図

現在のモデル: GLM-4-9B