MetaのAI責任者ヤン・ルカン氏が独立し、ビデオやセンサーを活用した「世界モデル」AIの開発を開始。大規模言語モデルへの依存を批判し、人間レベルの推論を目指す。....
MetaのAI責任者ヤン・ルカン氏が退任後初めて、大企業が大規模言語モデルに多額投資する戦略を批判。LLMは統計的テキスト補完のみで、物理世界の理解や長期推論が欠如し真の知能は不可能と指摘。次世代突破には「世界モデル」が必要と主張。....
ターニング賞受賞者であるYann LeCun氏とMeta社との間でAIの方向性について意見の相違が生じた。MetaのシニアAIサイエンティストとして、彼は最近、大規模言語モデルは死胡同である」と公に批判し、世界モデルの研究への転換を主張した。彼の退社に関する情報が注目を集めた。彼はFAIRの基礎AI研究部門を率いており、会社にとって重要な知的リソースと見なされていた。
小米はスマートホームソリューション「Xiaomi Miloco」を発表。大規模モデル技術を全屋スマート化に統合し、自然言語とシーン理解で複雑なユーザー要望に対応。音声指示でデバイスを自動調整し、インタラクション体験を向上。....
Kat Devはソフトウェアエンジニアリングとコーディングタスクに特化した大規模言語モデルで、AIコーディングを支援します。
AI検索可視性プラットフォームで、ブランドがChatGPT、Perplexity、Google AIなどの大規模言語モデル(LLM)におけるパフォーマンスを最適化するのを支援します。
さまざまな大規模言語モデルに対応したオープンソースのAIエージェントCLIツールです。
Fogsight は大規模言語モデルで駆動されるアニメーションエンジンです。
alibaba
$0.72
入力トークン/百万
$2.16
出力トークン/百万
128k
コンテキスト長
moonshotai
$4.1
$16.56
nvidia
-
tencent
$3
$9
8k
智谱ai
$4.5
$22.5
$0.8
$16
131.1k
baidu
$15
32k
baichuan
192k
meta
$6.48
deepseek
$1.94
$7.92
ai2
mistral
$14.4
$43.2
$1.44
01-ai
Guilherme34
Qwen3-32BはQwenシリーズの最新世代の大規模言語モデルで、強力な推論、命令遵守、エージェント間の相互作用、多言語処理能力を備えています。100種類以上の言語と方言をサポートし、思考モードと非思考モードをシームレスに切り替えることができ、ユーザーに自然でスムーズな対話体験を提供します。
DarwinAnim8or
Prima-24Bは240億パラメータの大規模言語モデルで、GGUF形式を用いて量子化最適化され、ロールプレイングとクリエイティブライティングタスクに特化して最適化されています。このモデルは元のPrima-24Bモデルから変換され、Q4_K_M量子化レベルを採用しており、良好な性能を維持しながらモデルサイズとメモリ要件を大幅に削減しています。
mlx-community
Kimi-K2-Thinkingは、mlx-communityによってmoonshotaiのオリジナルモデルからMLX形式に変換された大規模言語モデルです。mlx-lm 0.28.4バージョンを使用して変換され、元のモデルの思考過程推論能力が保持されています。
noctrex
Aquif-3.5-Max-42B-A3Bは420億パラメータの大規模言語モデルで、MXFP4_MOE量子化処理を行っており、高品質なテキスト生成能力を維持しながら推論効率を最適化しています。このモデルは先進的な混合専家アーキテクチャに基づいており、様々な自然言語処理タスクに適用できます。
bartowski
Apollo-V0.1-4B-Thinkingは40億パラメータの大規模言語モデルで、思考過程の推論アーキテクチャを採用し、推論タスクに特化して最適化されています。このモデルは複数の量子化バージョンを提供し、さまざまなハードウェア環境で効率的に動作します。
Mungert
gpt-oss-safeguard-20bは、GPT-OSS-20bをファインチューニングした安全推論モデルで、大規模言語モデルの入出力フィルタリング、オンラインコンテンツのラベリング、および信頼と安全のユースケースのオフラインラベリングに特化しています。このモデルはApache 2.0ライセンスを採用しており、カスタムポリシーと透明な決定プロセスをサポートしています。
これはNVIDIAのQwen3-Nemotron-32B-RLBFF大規模言語モデルのGGUF量子化バージョンで、llama.cppツールを使用して様々な精度で量子化され、BF16からIQ2_XXSまで20種類以上の量子化オプションを提供し、さまざまなハードウェア構成とパフォーマンス要件に対応しています。
shorecode
これは効率的なテキスト要約モデルで、大規模言語モデルのプロンプト内のテキスト内容を圧縮するために特別に設計されており、7倍以上の圧縮率を達成でき、API呼び出しコストを大幅に削減します。
BAAI
Emu3.5は北京智源人工知能研究院が開発したオリジナルのマルチモーダルモデルで、視覚と言語をまたいで次の状態を連合予測し、一貫した世界モデリングと生成を実現します。エンドツーエンド事前学習と大規模強化学習による事後学習を行うことで、マルチモーダルタスクで卓越した性能を発揮します。
unsloth
Qwen3-VLは通義大規模モデルシリーズの中で最も強力なビジュアル言語モデルで、卓越したテキスト理解と生成能力、深いビジュアル認識と推論能力、長いコンテキストのサポート、強力な空間とビデオ動的理解能力、そして優れたインテリジェントエージェント対話能力を備えています。このモデルはハイブリッドエキスパート(MoE)アーキテクチャを採用し、推論を強化した思考版です。
mradermacher
Hebrew_Nemoはヘブライ語処理に特化した大規模言語モデルで、指令微調整を行い、テキスト生成と会話インタラクションをサポートしています。このバージョンは元のモデルのGGUF量子化バージョンで、複数の量子化レベルを選択できます。
これはSicariusSicariiStuff/Hebrew_Nemoモデルに基づく量子化バージョンで、ヘブライ語に特化して最適化されたMistralアーキテクチャの大規模言語モデルで、ヘブライ語と英語のテキスト生成および対話タスクをサポートします。
これはQwen3-Yoyo-V4-42B-A3B-Thinking-TOTAL-RECALLモデルのMXFP4_MOE量子化バージョンで、テキスト生成タスクに特化して最適化されています。このモデルは42Bパラメータの大規模言語モデルアーキテクチャに基づいており、量子化技術によって計算とストレージの要件を削減し、同時に良好なパフォーマンスを維持しています。
GPT-OSS-Safeguard-20Bは、GPT-OSSをベースに構築された210億パラメータのセキュリティ推論モデルで、セキュリティ関連のテキストコンテンツの分類とフィルタリングタスクに特化して最適化されています。このモデルはカスタムセキュリティポリシーをサポートし、透明な推論プロセスを提供し、大規模言語モデルの入出力フィルタリングやオンラインコンテンツのラベリングなどのセキュリティユースケースに適しています。
hasanbasbunar
Lodos-24B-Instruct-2510は、Mistral-Small-3.2-24B-Instruct-2506をベースに微調整されたトルコ語の大規模言語モデルで、TRLフレームワークを使用して完全監督微調整を行い、トルコ語の命令追従タスクに特化して最適化されており、長文生成と複雑な推論をサポートしています。
Lamapi/next-12bは、12Bパラメータに基づく大規模言語モデルで、多言語データセットを使用して微調整され、50種類以上の言語をサポートし、効率的なテキスト生成能力を備えており、化学、コード、生物学、金融、法律などの複数の分野の自然言語処理タスクに適しています。
Lamapi/next-12bは120億パラメータの多言語大規模言語モデルで、複数の量子化バージョンを提供し、テキスト生成、質問応答、チャットなどの多様な自然言語処理タスクをサポートします。このモデルは複数の領域のデータセットで学習され、高効率で軽量な特徴を持っています。
MiniMax-M2-5bitは、MiniMaxAI/MiniMax-M2モデルから変換された5ビット量子化バージョンで、MLXフレームワーク用に最適化されています。このモデルは大規模言語モデルで、テキスト生成タスクをサポートし、MITライセンスで公開されています。
cturan
MiniMax-M2は、llama.cppの実験的ブランチに基づいて構築された大規模言語モデルで、ハイブリッドエキスパートアーキテクチャを備え、効率的なテキスト生成と推論タスクをサポートします。このモデルは特定の実験的ブランチが必要で正常に動作します。
RedHatAI
Llama-4-Maverick-17B-128E-Instruct-NVFP4は、FP4量子化処理を施された多言語大規模言語モデルで、Meta-Llama-3.1アーキテクチャに基づいており、商業および研究用途に特化して設計されています。このモデルは、重みと活性化をFP4データ型に量子化することで、ディスク容量とGPUメモリの要件を大幅に削減しながら、良好な性能を維持しています。
セレナは強力なオープンソースのコーディングエージェントツールキットで、大規模言語モデル(LLM)をコードベース上で直接動作するフル機能のエージェントに変えることができます。IDEに似た意味論的なコード検索と編集ツールを提供し、様々なプログラミング言語をサポートし、MCPプロトコルまたはAgnoフレームワークを介して様々なLLMと統合することができます。
Supabase MCPサーバーは、SupabaseプロジェクトとAIアシスタントを接続するツールです。Model Context Protocol(MCP)を通じて、大規模言語モデル(LLMs)と外部サービスのやり取りを標準化し、データベース管理、設定取得、データクエリなどの機能を実現します。
LLM Contextは、開発者がコード/テキストプロジェクトの内容を大規模言語モデルのチャットインターフェースに迅速に注入するのを支援するツールで、スマートなファイル選択と複数の統合方法をサポートしています。
MCPEngineは本番レベルのModel Context Protocol (MCP)の実装で、大規模言語モデル(LLM)に標準化されたインターフェイスを提供し、OAuth認証、リソース管理、ツール呼び出しなどの機能をサポートし、「LLM界のREST」フレームワークを目指しています。
Jinniは、大規模言語モデルにプロジェクトのコンテキストを効率的に提供するツールで、関連するファイルとそのメタデータを統合することで、1つずつファイルを読み取る制限を克服します。
WireMCPは大規模言語モデル(LLM)にリアルタイムネットワークトラフィック分析機能を提供するMCPサーバーで、Wiresharkツールを通じてネットワークデータをキャプチャして処理し、脅威検出、ネットワーク診断、異常分析をサポートします。
MCP2Lambdaは、AWS Lambda関数を大規模言語モデル(LLM)のツールとして実行するMCPプロトコルサーバーで、コードを変更することなくAIモデルがLambda関数を呼び出し、プライベートリソースやAWSサービスにアクセスできるようにします。
大規模言語モデルにA股データを提供するMCPサービス
Swiftで実装された知識グラフのメモリサーバーで、大規模言語モデルに永続的なメモリ機能を提供します。
WireMCPは大規模言語モデル(LLM)にリアルタイムのネットワークトラフィック分析機能を提供するMCPサーバーで、Wiresharkツールを統合することでデータキャプチャ、脅威検出、ネットワーク診断を実現します。
Rails MCP Serverは、Rubyをベースに実装されたModel Context Protocolサーバーで、Railsプロジェクトが大規模言語モデルと相互作用するための標準インターフェースを提供します。
Alpaca MCPサーバーは、Alpaca取引APIのモデルコンテキストプロトコル(MCP)サービスを実装しており、大規模言語モデルが自然言語でAlpaca取引システムとやり取りできるようにします。株式/オプション取引、投資ポートフォリオ管理、リアルタイム市場データの取得をサポートしています。
MCP2LambdaはMCPサーバーで、コードを変更することなく、AWS Lambda関数を大規模言語モデル(LLM)のツールとして使用することができます。Model Context Protocol (MCP)を通じてAIモデルとLambda関数の間に橋渡しを行い、モデルがプライベートリソースにアクセスし、カスタム操作を実行できるようにします。
HALは大規模言語モデルにHTTP API機能を提供するMCPサーバーで、安全なインターフェイスを介したネットワークリクエストとOpenAPI仕様からの自動ツール生成をサポートしています。
メタAPI MCPサーバーは、多APIをサポートするゲートウェイサーバーで、Model Context Protocol (MCP)を通じて様々なAPIと大規模言語モデル(Claude、GPTなど)を接続し、AIアシスタントがAPIと直接やり取りし、実データソースにアクセスできるようにします。JSON設定ファイルまたはPostmanコレクションからのAPIの迅速な追加をサポートし、HTTPメソッドの完全なサポートと複数の認証方式を提供します。
大規模言語モデルにGraphQLスキーマ探索サービスを提供するMCPサーバーで、GraphQLスキーマファイルの読み込み、クエリ、および分析をサポートします。
自然言語によるテーブルデータのクエリと分析をサポートするツールで、複数の大規模言語モデルをサポートし、CSVファイルからテーブル内容を読み取ることができます。
HAProxy MCPサーバーは、Go言語で実装されたHAProxyモデルコンテキストプロトコルサーバーで、HAProxyのランタイムAPIとmcp-goライブラリを通じて、大規模言語モデルに標準化されたHAProxy管理インターフェースを提供し、自然言語インタラクションによるロードバランサーの管理、監視およびトラフィック分析をサポートします。
Container - MCPはコンテナベースのセキュアなツール実行プラットフォームで、大規模言語モデルにコード、コマンド、ネットワーク操作を隔離環境で実行させ、MCPプロトコルのセキュアな実装を実現します。
MCPツールは、Model Context Protocol(MCP)を実装したサーバープロジェクトで、Claude DesktopなどのLLMクライアントにファイルシステムとコマンド実行ツールを提供し、大規模言語モデルのローカルシステムとの対話能力を拡張します。