GLM
開発者: Zhipu AI / Tsinghua University
清華大学KEGラボと智譜AI(Zhipu AI)が共同開発した大規模言語モデルファミリー。2022年のGLM-130Bから始まり、対話(ChatGLM)、コード生成(CodeGeeX)、マルチモーダル(CogVLM)、エージェント等多様なタスクに対応。双方向アーキテクチャとバイリンガル(中国語・英語)対応が特徴。GLM-4.7ではオープンソースモデルで初めてClaude Sonnet 4.5に匹敵する性能を達成。
家系図
モデル一覧 (17)
CodeGeeX
多言語コード生成モデル。23のプログラミング言語に対応。Huawei Ascend 910で学習。KDD 2023に採択。VS Code / JetBrains IDE拡張機能も提供。
GLM-130B
GLMファミリーの起源となるモデル。100B級のオープンソースモデルとしてGPT-3を上回る性能を初めて実現。双方向Dense TransformerアーキテクチャとAutoregressive Blank Infilling目的関数を採用。ICLR 2023に採択。INT4量子化でRTX 3090×4での推論が可能。
ChatGLM-6B
コンシューマー向けGPUで動作可能な初のGLM対話モデル。INT4量子化で6GB VRAMで推論可能。中国語・英語のバイリンガル対応。GLM-130Bの技術を小型化し、ローカル実行を実現。
ChatGLM2-6B
ChatGLM-6Bの第2世代。FlashAttentionによる長文対応(32Kトークン)、大幅な性能向上を実現。1.4兆トークンで学習。MMLUで+23%、GSM8Kで+571%の性能向上。
CodeGeeX2-6B
ChatGLM2-6Bベースの第2世代コードモデル。600Bコードトークンで追加学習。CodeGeeX比で+107%の性能向上。INT4量子化で6GB VRAMで推論可能。
ChatGLM3-6B
ネイティブFunction Call、Code Interpreter、Agent機能を初搭載。MMLUで61.4、HumanEvalで58.5と大幅性能向上。32K/128Kコンテキスト対応版も提供。同サイズモデルで最高性能を達成。
CogVLM
Visual Expert Moduleを導入した強力なVision-Language Model。言語能力を損なわずに深い視覚-言語融合を実現。10のVLMベンチマークでSOTA。NeurIPS 2024に採択。
CogAgent
GUI操作に特化したVision-Language Agent。1120×1120高解像度対応。PC・Android両方のGUI操作が可能。9つのVLMベンチマークでSOTA。CVPR 2024 Highlightに採択。GLM-PCプロダクトの基盤モデル。
CogVLM2
GPT-4Vに匹敵するマルチモーダルモデル。Llama-3-8B-Instructベース。最大1344×1344解像度対応。2×2ダウンサンプリングとVisual Expertを継承。動画理解版(CogVLM2-Video)も提供。
GLM-4-9B
多言語対応(26言語)を実現した9Bパラメータモデル。128Kコンテキスト、1M版も提供。Berkeley Function Calling LeaderboardでGPT-4 Turbo (2024-04-09)と同等性能。日本語を含む26言語対応。
GLM-4V-9B
CogVLM2と同じ学習レシピでGLM-4-9Bをベースに開発。EVA-E (4B)ビジョンエンコーダ採用。1120×1120解像度対応。Visual Expert不採用でモデルサイズを13Bに削減。GLM-4.1V-Thinkingなど派生モデルも展開。
CodeGeeX4-ALL-9B
10B以下最強のコード生成モデル。GLM-4-9Bベース。128Kコンテキスト、300+言語対応。コードモデル唯一のFunction Call実装(成功率90%+)。BigCodeBenchで20B以下最高スコア。
GLM-4-32B-0414
32Bパラメータでエージェント機能を強化。15兆トークン(推論型合成データ含む)で学習。OpenAI GPT系、DeepSeek V3/R1に匹敵する性能。RLHF調整済み。YaRN拡張でコンテキスト延長可能。
GLM-Z1
深層推論に特化したGLM-4-32Bの派生モデル。数学・コード・論理推論を強化。GLM-Z1-Ruminationは検索ツール統合による熟考モデルでDeep Research対抗。Cold Start + Extended RL、Pairwise Ranking Feedbackで学習。
GLM-4.5
エージェント・推論・コーディング(ARC)に特化した次世代フラッグシップMoEモデル。355B総パラメータ、32B活性化。23兆トークンで学習。Thinking/Non-Thinkingモード切替対応。12ベンチマーク平均で全モデル中3位。
GLM-4.6
GLM-4.5の改良版。コンテキスト128K→200Kに拡張。コーディング・推論能力強化。Claude Code、Cline、Roo Code等で検証済み。GPQA (with tools)で82.9%達成。
GLM-4.7
最新フラッグシップモデル。オープンソースモデルで初めてClaude Sonnet 4.5に匹敵。コーディング・エージェント能力でオープンソース最高峰。3種の思考モード(Interleaved/Preserved/Turn-level Thinking)搭載。Cerebras上で1500+ tokens/sの高速推論。SWE-bench Verifiedで73.8%、LiveCodeBenchで84.9達成。