登録されているすべてのLLMモデルを表示します
69モデル
Zhipu AI / Tsinghua University
清華大学KEGラボと智譜AI(Zhipu AI)が共同開発した大規模言語モデルファミリー。2022年のGLM-130Bから始まり、対話(ChatGLM)、コード生成(CodeGeeX)、マルチモーダル(CogVLM)、エージェント等多様なタスクに対応。双方向アーキテクチャとバイリンガル(中国語・英語)対応が特徴。GLM-4.7ではオープンソースモデルで初めてClaude Sonnet 4.5に匹敵する性能を達成。
Mistral AI
Mistral AIが開発するLLMシリーズ。2023年4月にフランス・パリで設立。創業者はGoogle DeepMindとMeta出身。Sliding Window AttentionやMixture-of-Experts(MoE)アーキテクチャの革新で知られる。オープンソースへのコミットメントと効率性重視のアプローチが特徴。テキスト生成(Mistral/Mixtral/Large/Small)、コード(Codestral)、数学(Mathstral)、マルチモーダル(Pixtral)、推論(Magistral)、音声(Voxtral)など多様なモデルを展開。
DeepSeek AI
2023年7月に梁文鋒によって設立された中国のAI企業DeepSeek AIが開発するLLMシリーズ。Mixture-of-Experts(MoE)アーキテクチャ、Multi-head Latent Attention(MLA)、効率的な学習技術において革新を先導。大幅に低いコストで主要なプロプライエタリモデルに匹敵する性能を達成。初代LLMから推論特化のR1、コード特化Coder、数学特化Math、マルチモーダルVLシリーズ、定理証明Proverまで多岐にわたるモデルを展開。
Alibaba Cloud / Qwen Team
Alibaba Cloudが開発する大規模言語モデルシリーズ「通義千問」。2023年の初代Qwenから2025年のQwen3世代まで急速に進化し、119言語対応・256Kコンテキストを実現。テキスト生成のコアモデル(Qwen1.5→Qwen2→Qwen2.5→Qwen3)に加え、ビジョン(Qwen-VL)、コーディング(Qwen-Coder)、推論(QwQ)、数学(Qwen-Math)、埋め込み(Qwen-Embedding)など専門特化モデルを展開。Apache 2.0ライセンスで商用利用可能。
Google DeepMind
Google DeepMindが開発するオープンウェイトLLMシリーズ。ラテン語で「宝石」を意味するGemmaは、2024年2月の初代モデルから2025年のGemma 3世代まで急速に進化。テキスト生成のコアモデル(Gemma→Gemma 2→Gemma 3→Gemma 3n)に加え、コーディング(CodeGemma)、翻訳(TranslateGemma)、埋め込み(EmbeddingGemma)、関数呼び出し(FunctionGemma)、安全性評価(ShieldGemma)など専門特化モデルを展開。140+言語対応、128Kコンテキスト、モバイル・エッジ向け最適化を実現。
Meta
Metaが開発する大規模言語モデル(LLM)シリーズ。2023年2月のLLaMA 1から始まり、オープンソースLLM革命を牽引。Llama 4ではMixture of Experts(MoE)とネイティブマルチモーダルを採用し、最大10Mトークンのコンテキストを実現。派生モデルとしてCode Llama(コード特化)、Llama Guard(安全性分類)も提供。
Microsoft Research
Microsoft Researchが開発するSmall Language Models(SLM)シリーズ。「Textbooks Are All You Need」コンセプトのもと、高品質合成データと教科書品質データで学習し、パラメータ数の数倍大きなモデルに匹敵する性能を実現。デバイス上での実行、低レイテンシ推論、プライバシー優先のアプリケーションに最適化。MIT Licenseでオープンソース。