MIT研究チームは、問題の複雑さに応じて大規模言語モデルの計算リソースを動的に調整するインスタンス適応スケーリング技術を開発し、効率向上とエネルギー消費削減を実現。複数機関の支援を受け、関連論文は11月初旬に発表された。....
上海交通大学無錫フォトニックチップ研究院が、世界初のフォトニックチップ全工程向け専門大規模モデル「LightSeek」を発表。千億パラメータのマルチモーダルアーキテクチャと自社110nm中試ラインの実データを活用し、チップ開発期間を6-8ヶ月から1ヶ月に短縮、効率を7倍向上させ、フォトニックチップのAI垂直モデル時代の幕開けを告げる。....
智譜がマルチモーダル大規模モデルGLM-4.6Vシリーズをオープンソース化。128kトークンのコンテキストウィンドウを実現し、視覚理解精度は同規模で最高水準。初のネイティブFunction Call統合により、視覚認識から実行可能なアクションまで一貫した処理が可能に。API価格を大幅値下げ、軽量版は完全無料でGLM Coding Planに統済。....
NVIDIAの小規模モデルNVARCが、ARC-AGI2評価で27.64%の成績を達成しGPT-5Proを上回った。単一タスクコストは20セントと競合の7ドルを大幅に下回り、コストパフォーマンスに優れる。これは大規模汎用データセットに依存しない独自のゼロ事前学習深層学習手法による成果である。....
ワンストップの大規模なモデルAPI管理プラットフォームで、複数のAIモデルをサポートしています。
AI大規模モデルによる履歴書解析で、HRの履歴書処理の難題を解決し、自動化された採用プロセスを実現します。
グローバルな大規模モデル統合プラットフォームで、テキスト、画像、動画すべてをカバーしています。
SQLBot は大規模モデルと RAG を基盤としたスマートなデータ質問システムです。
Google
$0.49
入力トークン/百万
$2.1
出力トークン/百万
1k
コンテキスト長
Xai
$1.4
$3.5
2k
Openai
-
Anthropic
$105
$525
200
$0.7
$2.8
$7
$35
$17.5
$21
Alibaba
$1
$10
256
Baidu
128
$6
$24
$8
$240
52
Bytedance
$1.2
$3.6
4
$2
$3.9
$15.2
64
Moonshot
$4
$16
$0.8
PrimeIntellect
INTELLECT-3は1060億のパラメータを持つ混合専門家(MoE)モデルで、大規模な強化学習によって訓練されています。数学、コーディング、推論のベンチマークテストで卓越した性能を発揮し、モデル、訓練フレームワーク、環境はすべて緩やかなライセンス契約でオープンソース化されています。
Trilogix1
Fara-7Bは、コンピューターの使用シーンに特化して設計された、パラメータがわずか70億の効率的な小型言語モデルです。ウェブ操作などの高度なユーザータスクで優れた性能を発揮し、より大規模なプロキシシステムと競争することができます。
nightmedia
これは実験的な量子化大規模言語モデルで、Deckard(qx)量子化方法を採用し、埋め込み層は3ビット量子化です。このモデルはノルム保持双投影除去(NPBA)技術によって再構築され、セキュリティ制限メカニズムを削除するだけでなく、モデルの認知深度と推論能力を強化しています。
GLM-4.5-Air-REAP-82B-A12B-mxfp4-mlxは、GLM-4.5-AirモデルをREAP方法で圧縮した82Bパラメータの大規模言語モデルで、MXFP4量子化形式を採用し、Macデバイス用に最適化されており、核心タスクの性能を維持しながらメモリ使用量を大幅に削減します。
mlx-community
このモデルは、allenai/Olmo-3-7B-Instructを基に変換された8ビット量子化バージョンで、Apple MLXフレームワーク用に特別に最適化されています。これは70億パラメータの大規模言語モデルで、命令追従と対話タスクをサポートします。
MaziyarPanahi
このプロジェクトでは、Qwen3-4B-Thinking-2507モデルのGGUF形式のファイルを提供しています。これは、思考過程推論能力を持つ4Bパラメータの大規模言語モデルで、複数の量子化バージョンをサポートし、さまざまなハードウェアでのデプロイと実行が容易です。
prithivMLmods
VibeThinker-1.5Bは微博AIが開発した15億パラメータの密集型言語モデルで、Qwen2.5-Math-1.5Bをベースに微調整され、数学やアルゴリズムコーディングの問題に特化して設計されています。「スペクトルから信号への原理」のフレームワークを用いてトレーニングされ、複数の数学コンテストのテストでより大規模なモデルを上回り、トレーニングコストは約7800ドルで、最大約40kトークンの出力をサポートします。
RiosWesley
ブラジル範囲ルーティングモデルは、Gemma 3 270Mをベースにした微調整されたミニマルな大規模言語モデルで、ブラジルの配達サービスシステム用に設計されており、非常に高速で軽量な意図分類器(ルーター)として機能します。このモデルはUnslothを使用してトレーニングされ、GGUF形式に変換されています。
Intel
DeepMathは40億パラメータの数学推理モデルで、Qwen3 - 4B Thinkingをベースに構築され、微調整された大規模言語モデルとサンドボックス化されたPython実行器を組み合わせています。これは計算ステップに対して簡潔なPythonコード断片を生成し、エラーを大幅に減らし、出力長を短縮します。
OpenMMReasoner
OpenMMReasonerは完全に透明な二段階マルチモーダル推論方案で、教師あり微調整(SFT)と強化学習(RL)を含んでいます。この方案は、質の高いデータセットを精心に構築することで、複数のマルチモーダル推論ベンチマークテストで強力なベースラインモデルを上回り、将来の大規模マルチモーダル推論研究に堅実な実証的基礎を築きました。
bartowski
これはREAP方法を用いてMiniMax-M2の専門家を均一に25%裁剪した172Bパラメータの大規模言語モデルで、llama.cppに特化して最適化された量子化処理が施されており、複数の量子化レベルをサポートし、LM Studioやllama.cppベースのプロジェクトで動作します。
これはREAP方法に基づいて、MiniMax-M2の40%の専門家を均等に剪定して得られた139Bパラメータの大規模言語モデルです。GLMアーキテクチャと専門家混合(MoE)技術を採用し、llama.cppを通じて様々な量化処理を行い、テキスト生成タスクに適しています。
DevQuasar
このプロジェクトでは、cerebras/MiniMax-M2-REAP-172B-A10Bモデルの量子化バージョンを提供しており、知識を大衆に利用してもらうことを目指しています。これは1720億パラメータの大規模言語モデルで、最適化と量子化処理が施されており、デプロイコストの削減と推論効率の向上を目的としています。
advy
このモデルは、meta-llama/Llama-3.1-70B-Instructを特定のデータセットで微調整した大規模言語モデルで、テキスト生成タスクに特化しており、評価セットで0.6542の損失値を達成しています。
これはp-e-w/gpt-oss-20b-hereticモデルの量子化バージョンで、llama.cppのimatrix技術を使用して量子化処理が行われています。このモデルは200億パラメータの大規模言語モデルで、高品質から低品質まで様々な量子化オプションを提供し、ファイルサイズは41.86GBから11.52GBまでで、さまざまなハードウェア条件に適しています。
Guilherme34
Qwen3-32BはQwenシリーズの最新世代の大規模言語モデルで、強力な推論、命令遵守、エージェント間の相互作用、多言語処理能力を備えています。100種類以上の言語と方言をサポートし、思考モードと非思考モードをシームレスに切り替えることができ、ユーザーに自然でスムーズな対話体験を提供します。
MiroThinker-v1.0-72Bは72Bパラメータの大規模言語モデルの量子化バージョンで、知識を誰もが利用できるようにすることを目指しています。このプロジェクトはオリジナルモデルを最適化し、より効率的な推論性能を提供します。
noname0202
kotodama-1.5b-a0.3b-sftは、noname0202/kotodama-1.5b-a0.3b-ptをベースにした、監督付き微調整を行った大規模言語モデルです。このモデルはTRLフレームワークを使用して訓練され、テキスト生成タスクに特化して最適化されており、自然言語処理に関連する問題を効果的に解決できます。
TeichAI
これはClaude Sonnet 4.5の推論データセットを基に訓練された300億パラメータの大規模言語モデルで、高難度の推論タスクに特化して最適化されており、コーディングと科学の分野で優れた性能を発揮します。
DavidAU
Qwen 3をベースに微調整された12Bパラメータの大規模言語モデルで、256kの超長コンテキスト処理能力を備え、長文テキスト生成タスクに特化して最適化されています。このモデルはVLTO 8Bモデルの基礎、Brainstorm 20xの調整、NEO Imatrixデータセットの量子化技術を組み合わせ、高品質の長文テキストコンテンツを生成できます。
HiveChatは中小チーム向けに設計されたAIチャットアプリで、複数の大規模モデルサービスプロバイダーをサポートし、グループ管理、トークン制限、サードパーティログインなどの機能を提供します。
セレナは強力なオープンソースのコーディングエージェントツールキットで、大規模言語モデル(LLM)をコードベース上で直接動作するフル機能のエージェントに変えることができます。IDEに似た意味論的なコード検索と編集ツールを提供し、様々なプログラミング言語をサポートし、MCPプロトコルまたはAgnoフレームワークを介して様々なLLMと統合することができます。
Supabase MCPサーバーは、SupabaseプロジェクトとAIアシスタントを接続するツールです。Model Context Protocol(MCP)を通じて、大規模言語モデル(LLMs)と外部サービスのやり取りを標準化し、データベース管理、設定取得、データクエリなどの機能を実現します。
LLM Contextは、開発者がコード/テキストプロジェクトの内容を大規模言語モデルのチャットインターフェースに迅速に注入するのを支援するツールで、スマートなファイル選択と複数の統合方法をサポートしています。
K8MはAI駆動の軽量級Kubernetesコンソールツールで、大規模モデルの能力を統合し、多クラスタ管理とMCPサービスをサポートします。
MCPEngineは本番レベルのModel Context Protocol (MCP)の実装で、大規模言語モデル(LLM)に標準化されたインターフェイスを提供し、OAuth認証、リソース管理、ツール呼び出しなどの機能をサポートし、「LLM界のREST」フレームワークを目指しています。
Jinniは、大規模言語モデルにプロジェクトのコンテキストを効率的に提供するツールで、関連するファイルとそのメタデータを統合することで、1つずつファイルを読み取る制限を克服します。
WireMCPは大規模言語モデル(LLM)にリアルタイムネットワークトラフィック分析機能を提供するMCPサーバーで、Wiresharkツールを通じてネットワークデータをキャプチャして処理し、脅威検出、ネットワーク診断、異常分析をサポートします。
MCP2Lambdaは、AWS Lambda関数を大規模言語モデル(LLM)のツールとして実行するMCPプロトコルサーバーで、コードを変更することなくAIモデルがLambda関数を呼び出し、プライベートリソースやAWSサービスにアクセスできるようにします。
大規模言語モデルにA股データを提供するMCPサービス
Swiftで実装された知識グラフのメモリサーバーで、大規模言語モデルに永続的なメモリ機能を提供します。
WireMCPは大規模言語モデル(LLM)にリアルタイムのネットワークトラフィック分析機能を提供するMCPサーバーで、Wiresharkツールを統合することでデータキャプチャ、脅威検出、ネットワーク診断を実現します。
Rails MCP Serverは、Rubyをベースに実装されたModel Context Protocolサーバーで、Railsプロジェクトが大規模言語モデルと相互作用するための標準インターフェースを提供します。
Alpaca MCPサーバーは、Alpaca取引APIのモデルコンテキストプロトコル(MCP)サービスを実装しており、大規模言語モデルが自然言語でAlpaca取引システムとやり取りできるようにします。株式/オプション取引、投資ポートフォリオ管理、リアルタイム市場データの取得をサポートしています。
MCP2LambdaはMCPサーバーで、コードを変更することなく、AWS Lambda関数を大規模言語モデル(LLM)のツールとして使用することができます。Model Context Protocol (MCP)を通じてAIモデルとLambda関数の間に橋渡しを行い、モデルがプライベートリソースにアクセスし、カスタム操作を実行できるようにします。
大規模言語モデルにファイルシステムのコンテキストを提供するMCPサーバーで、ファイル操作、コード分析、およびスマート検索をサポートします。
Auto Causal Inferenceは、大規模言語モデル(LLM)を利用して自動的に因果推論を行うプロジェクトです。ユーザーは介入変数と結果変数を指定するだけで、システムが自動的に変数の役割識別、因果グラフの構築、効果推定、モデル検証などの全プロセスの分析を完了します。プロジェクトは2種類のエージェントアーキテクチャ(LangGraphとMCP)を提供してこの機能を実現し、特に銀行シナリオの因果問題分析に適しています。
大規模なJSONファイルをクエリするためのMCPサーバーで、JSONPathクエリ、類似キー値検索機能を提供し、MCPプロトコルを介してLLMモデルが大規模データを操作できるようにします。
大規模言語モデルに標準化されたインターフェースを提供するJenkins MCPサーバーで、Jenkinsデータへのアクセスと関連操作の実行をサポートします。
モデルコンテキストプロトコル(MCP)に基づくサービスで、大規模言語モデルがYouTubeの音楽を検索、ダウンロード、再生できます。