ChatGLM2-6B

指示チューニング
開発者
Zhipu AI / Tsinghua University
ライセンス
Apache 2.0
リリース日
2023/6/25
コンテキスト長
32,768 トークン
トレーニングトークン
1.4T
対応言語
zh, en
officialbilingualdialogue

ChatGLM-6Bの第2世代。FlashAttentionによる長文対応(32Kトークン)、大幅な性能向上を実現。1.4兆トークンで学習。MMLUで+23%、GSM8Kで+571%の性能向上。

ベンチマーク

MMLU
45.2

ソース: ChatGLM2 Technical Report

技術仕様

アーキテクチャ

GLM Transformer with FlashAttention

プロンプトテンプレート

フォーマット: chatglm2
ユーザープロンプト:
[Round {n}]

问:{prompt}

アシスタントプロンプト:
答:
ストップトークン:
</s>

パラメータバリエーション

ChatGLM2-6B(6.2B)

HuggingFace

標準版。8Kトークンで学習、推論時32Kまで対応。

VRAM13GB
RAM16GB

GGUFファイルは登録されていません

ChatGLM2-6B INT4(6.2B)

HuggingFace

INT4量子化版。6GB VRAMで推論可能。

VRAM6GB
RAM12GB

GGUFファイルは登録されていません

ChatGLM2-6B-32K(6.2B)

HuggingFace

32Kコンテキスト対応版。長文処理に最適化。

VRAM16GB
RAM24GB

GGUFファイルは登録されていません

家系図

現在のモデル: ChatGLM2-6B