AIwiki - ローカルLLM情報Wiki

ローカルで動かせるLLMの情報を整理してまとめています

最新のモデル

すべて見る

GLM-4.7

Zhipu AI / Tsinghua University

ベースモデル

最新フラッグシップモデル。オープンソースモデルで初めてClaude Sonnet 4.5に匹敵。コーディング・エージェント能力でオープンソース最高峰。3種の思考モード(Interleaved/Preserved/Turn-level Thinking)搭載。Cerebras上で1500+ tokens/sの高速推論。SWE-bench Verifiedで73.8%、LiveCodeBenchで84.9達成。

2 バリエーション2025/12/22

Mistral Large 3

Mistral AI

ベースモデル

Mistral AIの最新フラッグシップモデル。2025年12月2日公開。Granular MoEアーキテクチャ採用。総パラメータ675B、活性化41B。2.5Bパラメータのビジョンエンコーダー搭載。256Kコンテキスト。3000台のNVIDIA H200 GPUでスクラッチから学習。GPT-4o、Gemini 2に匹敵。Ministral 3シリーズ(3B/8B/14B)も同時リリース。

6 バリエーション2025/12/2

DeepSeek-V3.2

DeepSeek AI

ベースモデル

DeepSeek AIのV3.2モデル。2025年12月1日公開。DeepSeek Sparse Attention(DSA)を導入し、より効率的なアテンション機構を実現。GPT-5/Gemini-3.0-Pro相当の性能。IMO 2025、IOI 2025で金メダル達成。685Bパラメータ。MITライセンス。

1 バリエーション2025/12/1

DeepSeekMath-V2

DeepSeek AI

ファインチューニング

DeepSeek AIの第2世代数学推論モデル。2025年11月27日公開。自己検証型数学推論を導入。IMO 2025金メダル(6問中5問解決)、CMO 2024金メダル、Putnam 2024で118/120点(人間最高90点)を達成。685Bパラメータ。Apache 2.0ライセンス。

1 バリエーション2025/11/27

Qwen3-VL

Alibaba Cloud / Qwen Team

指示チューニング

2025年9月23日公開。Qwen3ベースのビジョン言語モデル。ネイティブ動的解像度ViT(16ピクセルパッチ)、Interleaved-MRoPE、DeepStack fusionを採用。1時間以上の動画理解、32言語以上のOCRに対応。256Kコンテキスト(1Mまで拡張可能)。Dense版とMoE版を提供。

6 バリエーション2025/9/23

Qwen3-Next

Alibaba Cloud / Qwen Team

ベースモデル

2025年9月10日公開。革新的なHybrid Transformer-Mambaアーキテクチャを採用。80Bパラメータながら3Bのみアクティブで高効率。256Kネイティブコンテキスト(1Mまで拡張可能)。Gated DeltaNet(線形アテンション)とHigh-Sparsity MoE(512エキスパート、10アクティブ)を組み合わせ、Multi-Token Prediction(MTP)も実装。

5 バリエーション2025/9/10