AIwiki - ローカルLLM情報Wiki
ローカルで動かせるLLMの情報を整理してまとめています
最新のモデル
すべて見る →GLM-4.7
Zhipu AI / Tsinghua University
最新フラッグシップモデル。オープンソースモデルで初めてClaude Sonnet 4.5に匹敵。コーディング・エージェント能力でオープンソース最高峰。3種の思考モード(Interleaved/Preserved/Turn-level Thinking)搭載。Cerebras上で1500+ tokens/sの高速推論。SWE-bench Verifiedで73.8%、LiveCodeBenchで84.9達成。
Mistral Large 3
Mistral AI
Mistral AIの最新フラッグシップモデル。2025年12月2日公開。Granular MoEアーキテクチャ採用。総パラメータ675B、活性化41B。2.5Bパラメータのビジョンエンコーダー搭載。256Kコンテキスト。3000台のNVIDIA H200 GPUでスクラッチから学習。GPT-4o、Gemini 2に匹敵。Ministral 3シリーズ(3B/8B/14B)も同時リリース。
DeepSeek-V3.2
DeepSeek AI
DeepSeek AIのV3.2モデル。2025年12月1日公開。DeepSeek Sparse Attention(DSA)を導入し、より効率的なアテンション機構を実現。GPT-5/Gemini-3.0-Pro相当の性能。IMO 2025、IOI 2025で金メダル達成。685Bパラメータ。MITライセンス。
DeepSeekMath-V2
DeepSeek AI
DeepSeek AIの第2世代数学推論モデル。2025年11月27日公開。自己検証型数学推論を導入。IMO 2025金メダル(6問中5問解決)、CMO 2024金メダル、Putnam 2024で118/120点(人間最高90点)を達成。685Bパラメータ。Apache 2.0ライセンス。
Qwen3-VL
Alibaba Cloud / Qwen Team
2025年9月23日公開。Qwen3ベースのビジョン言語モデル。ネイティブ動的解像度ViT(16ピクセルパッチ)、Interleaved-MRoPE、DeepStack fusionを採用。1時間以上の動画理解、32言語以上のOCRに対応。256Kコンテキスト(1Mまで拡張可能)。Dense版とMoE版を提供。
Qwen3-Next
Alibaba Cloud / Qwen Team
2025年9月10日公開。革新的なHybrid Transformer-Mambaアーキテクチャを採用。80Bパラメータながら3Bのみアクティブで高効率。256Kネイティブコンテキスト(1Mまで拡張可能)。Gated DeltaNet(線形アテンション)とHigh-Sparsity MoE(512エキスパート、10アクティブ)を組み合わせ、Multi-Token Prediction(MTP)も実装。