GLM

開発者: Zhipu AI / Tsinghua University

清華大学KEGラボと智譜AI(Zhipu AI)が共同開発した大規模言語モデルファミリー。2022年のGLM-130Bから始まり、対話(ChatGLM)、コード生成(CodeGeeX)、マルチモーダル(CogVLM)、エージェント等多様なタスクに対応。双方向アーキテクチャとバイリンガル(中国語・英語)対応が特徴。GLM-4.7ではオープンソースモデルで初めてClaude Sonnet 4.5に匹敵する性能を達成。

家系図

モデル一覧 (17)

CodeGeeX

多言語コード生成モデル。23のプログラミング言語に対応。Huawei Ascend 910で学習。KDD 2023に採択。VS Code / JetBrains IDE拡張機能も提供。

1 バリエーション2022/9/1
ベースモデル

GLM-130B

GLMファミリーの起源となるモデル。100B級のオープンソースモデルとしてGPT-3を上回る性能を初めて実現。双方向Dense TransformerアーキテクチャとAutoregressive Blank Infilling目的関数を採用。ICLR 2023に採択。INT4量子化でRTX 3090×4での推論が可能。

3 バリエーション2022/7/1
ベースモデル

ChatGLM-6B

コンシューマー向けGPUで動作可能な初のGLM対話モデル。INT4量子化で6GB VRAMで推論可能。中国語・英語のバイリンガル対応。GLM-130Bの技術を小型化し、ローカル実行を実現。

4 バリエーション2023/3/14
指示チューニング

ChatGLM2-6B

ChatGLM-6Bの第2世代。FlashAttentionによる長文対応(32Kトークン)、大幅な性能向上を実現。1.4兆トークンで学習。MMLUで+23%、GSM8Kで+571%の性能向上。

3 バリエーション2023/6/25
指示チューニング

CodeGeeX2-6B

ChatGLM2-6Bベースの第2世代コードモデル。600Bコードトークンで追加学習。CodeGeeX比で+107%の性能向上。INT4量子化で6GB VRAMで推論可能。

2 バリエーション2023/7/1
指示チューニング

ChatGLM3-6B

ネイティブFunction Call、Code Interpreter、Agent機能を初搭載。MMLUで61.4、HumanEvalで58.5と大幅性能向上。32K/128Kコンテキスト対応版も提供。同サイズモデルで最高性能を達成。

4 バリエーション2023/10/27
指示チューニング

CogVLM

Visual Expert Moduleを導入した強力なVision-Language Model。言語能力を損なわずに深い視覚-言語融合を実現。10のVLMベンチマークでSOTA。NeurIPS 2024に採択。

3 バリエーション2023/10/1
ベースモデル

CogAgent

GUI操作に特化したVision-Language Agent。1120×1120高解像度対応。PC・Android両方のGUI操作が可能。9つのVLMベンチマークでSOTA。CVPR 2024 Highlightに採択。GLM-PCプロダクトの基盤モデル。

2 バリエーション2023/12/1
ベースモデル

CogVLM2

GPT-4Vに匹敵するマルチモーダルモデル。Llama-3-8B-Instructベース。最大1344×1344解像度対応。2×2ダウンサンプリングとVisual Expertを継承。動画理解版(CogVLM2-Video)も提供。

2 バリエーション2024/5/1
ベースモデル

GLM-4-9B

多言語対応(26言語)を実現した9Bパラメータモデル。128Kコンテキスト、1M版も提供。Berkeley Function Calling LeaderboardでGPT-4 Turbo (2024-04-09)と同等性能。日本語を含む26言語対応。

3 バリエーション2024/6/5
ベースモデル

GLM-4V-9B

CogVLM2と同じ学習レシピでGLM-4-9Bをベースに開発。EVA-E (4B)ビジョンエンコーダ採用。1120×1120解像度対応。Visual Expert不採用でモデルサイズを13Bに削減。GLM-4.1V-Thinkingなど派生モデルも展開。

2 バリエーション2024/6/5
ベースモデル

CodeGeeX4-ALL-9B

10B以下最強のコード生成モデル。GLM-4-9Bベース。128Kコンテキスト、300+言語対応。コードモデル唯一のFunction Call実装(成功率90%+)。BigCodeBenchで20B以下最高スコア。

1 バリエーション2024/7/1
指示チューニング

GLM-4-32B-0414

32Bパラメータでエージェント機能を強化。15兆トークン(推論型合成データ含む)で学習。OpenAI GPT系、DeepSeek V3/R1に匹敵する性能。RLHF調整済み。YaRN拡張でコンテキスト延長可能。

2 バリエーション2025/4/14
ベースモデル

GLM-Z1

深層推論に特化したGLM-4-32Bの派生モデル。数学・コード・論理推論を強化。GLM-Z1-Ruminationは検索ツール統合による熟考モデルでDeep Research対抗。Cold Start + Extended RL、Pairwise Ranking Feedbackで学習。

3 バリエーション2025/4/14
指示チューニング

GLM-4.5

エージェント・推論・コーディング(ARC)に特化した次世代フラッグシップMoEモデル。355B総パラメータ、32B活性化。23兆トークンで学習。Thinking/Non-Thinkingモード切替対応。12ベンチマーク平均で全モデル中3位。

3 バリエーション2025/7/28
ベースモデル

GLM-4.6

GLM-4.5の改良版。コンテキスト128K→200Kに拡張。コーディング・推論能力強化。Claude Code、Cline、Roo Code等で検証済み。GPQA (with tools)で82.9%達成。

2 バリエーション2025/9/1
ベースモデル

GLM-4.7

最新フラッグシップモデル。オープンソースモデルで初めてClaude Sonnet 4.5に匹敵。コーディング・エージェント能力でオープンソース最高峰。3種の思考モード(Interleaved/Preserved/Turn-level Thinking)搭載。Cerebras上で1500+ tokens/sの高速推論。SWE-bench Verifiedで73.8%、LiveCodeBenchで84.9達成。

2 バリエーション2025/12/22
ベースモデル