CodeGeeX2-6B

指示チューニング
開発者
Zhipu AI / Tsinghua University
ライセンス
Apache 2.0
リリース日
2023/7/1
コンテキスト長
8,192 トークン
トレーニングトークン
600B (code)
対応言語
code
ベースモデル
chatglm2-6b
officialcodemultilingual

ChatGLM2-6Bベースの第2世代コードモデル。600Bコードトークンで追加学習。CodeGeeX比で+107%の性能向上。INT4量子化で6GB VRAMで推論可能。

技術仕様

アーキテクチャ

ChatGLM2 Transformer

パラメータバリエーション

CodeGeeX2-6B(6B)

HuggingFace

標準版。HumanEval-X全言語で大幅性能向上(Python +57%、Rust +321%)。

VRAM13GB
RAM16GB

GGUFファイルは登録されていません

CodeGeeX2-6B INT4(6B)

HuggingFace

INT4量子化版。6GB VRAMで推論可能。

VRAM6GB
RAM12GB

GGUFファイルは登録されていません

家系図

現在のモデル: CodeGeeX2-6B