マイクロソフトはオープンソースフレームワークである Agent Lightning をリリースしました。このフレームワークは強化学習を利用してマルチエージェントシステムを最適化します。現行のアーキテクチャを変更することなく、実際のエージェント行動を強化学習の遷移に変換し、大規模言語モデルの戦略性能を向上させます。このフレームワークではエージェントを部分的に観測可能なマルコフ意思決定過程としてモデル化し、現在の入力を観測とし、モデル呼び出しを行動として扱います。さらに報酬メカニズムを取り入れています。
アリババグループがベイリン大モデルのRing-flash-linear-2.0-128Kをオープンソース化。超長文プログラミングに特化。混合線形アテンションとスパースMoEアーキテクチャを採用し、6.1Bパラメータのみを活性化することで40Bの密なモデルと同等の性能を達成。コード生成やスマートエージェント分野で最高水準の結果を実現し、長い文脈処理の問題を効率的に解決。
2025年10月27日、MiniMaxが大規模言語モデル「MiniMax M2」をオープンソース化。MoEアーキテクチャ採用で、エージェントワークフローとエンドツーエンドコーディングに特化。Claude Sonnet比でコスト8%、速度約2倍の高効率・高性能を実現。....
阿里雲が通義千問Qwen3-VLシリーズの2Bと32Bの2つの新モデルを発表し、オープンソースモデルが合計24個に。軽量から大規模までカバーする技術マトリックスを形成し、モデルエコシステムの競争力を強化。....
TwelveLabsは、ビデオ理解において性能が最も優れていると、一流の研究者に認められた人工知能であり、クラウドコンピューティング大手やオープンソースモデルの基準を上回っています。
小米初の推論大規模モデルMiMoがオープンソース化され、推論タスクに特化して設計され、卓越した性能を誇ります。
さまざまな大規模言語モデルに対応したオープンソースのAIエージェントCLIツールです。
AI大モデル駆動のオープンソース知識ベース構築システム。
minimax
-
入力トークン/百万
出力トークン/百万
1M
コンテキスト長
moonshotai
$4.1
$16.56
128k
meta
$1.44
$6.48
mistral
32k
alibaba
131.1k
google
8.2k
2k
lapa-llm
Lapa LLM v0.1.2は、Gemma - 3 - 12Bをベースに開発されたウクライナ語処理用のオープンソース大規模言語モデルで、ウクライナ語の自然言語処理タスクに特化し、ウクライナ語処理で卓越した性能を発揮します。
Open-Bee
Bee-8Bは、データ品質に特化した、最先端の完全オープンソースのマルチモーダル大規模言語モデルです。専用モデルとの性能ギャップを縮小することを目的としています。高品質のHoney-Data-15Mコーパスと先進的なデータ処理パイプラインHoneyPipeを使用することで、複雑な推論などの分野で卓越した性能を発揮しています。
Kwaipilot
KAT-Dev-72B-Expは、ソフトウェアエンジニアリングタスクに使用される720億パラメータのオープンソース大規模言語モデルで、SWE-Bench Verifiedベンチマークテストで74.6%の正解率を達成し、KAT-Coderモデルの実験的な強化学習バージョンです。
unsloth
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、70億と80億の2種類のパラメータ規模を提供します。このモデルは1000種類以上の言語をサポートし、完全にコンプライアンスでオープンな学習データを使用し、その性能はクローズドソースモデルに匹敵します。Apertusは15Tのトークンで事前学習され、段階的なコース学習方法を採用し、最大65,536トークンのコンテキスト長をサポートします。
redponike
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、パラメータ規模は80億と700億で、1000種以上の言語と長文脈処理をサポートし、完全にコンプライアンスの取れたオープンな学習データのみを使用し、性能はクローズドソースモデルに匹敵します。
jeevanrushi07
OpenLLaMA 3B v2はTransformerアーキテクチャに基づくオープンソースの大規模言語モデルで、30億のパラメータを持っています。このモデルはMITライセンスを採用しており、主に英文テキスト生成タスクに使用され、チャットボットなどのさまざまなアプリケーションシナリオをサポートします。
Granite-4.0-H-SmallはIBMが開発した320億パラメータの長文脈指示モデルで、Granite-4.0-H-Small-Baseをベースに微調整されています。このモデルは、オープンソースの指示データセットと内部合成データセットを組み合わせ、監督微調整、強化学習アライメント、モデルマージなどの技術を用いて開発され、指示に対する従順性とツール呼び出し能力が大幅に向上しています。
Lapa LLM 12B PTは、Google Gemma 3 - 12Bをベースに開発されたオープンソースの大規模言語モデルで、ウクライナ語処理に特化して最適化されています。ウクライナの複数の大学の研究チームによって開発され、ウクライナ語処理において卓越した性能を発揮し、効率的な指令微調整とマルチモーダル能力を備えています。
VLA-Adapter
VLA-Adapterは、Libero-Spatial上で訓練されたマイクロビジョン言語アクションモデルで、Prismatic-VLMアーキテクチャを採用し、大規模言語モデルのバックボーンとしてQwen2.5-0.5Bのみを使用しています。このモデルは、ロボットのベンチマークテストで、パラメータ規模がより大きいオープンソースのVLAモデルを上回り、高性能なビジョン - 言語 - アクションの理解と実行を実現しています。
geoffmunn
これはQwen/Qwen3-0.6B言語モデルのGGUF量子化バージョンで、6億のパラメータを持つコンパクトな大規模言語モデルで、低リソースデバイスでの超高速推論用に設計されています。llama.cpp、LM Studio、OpenWebUI、GPT4Allなどのフレームワークをサポートし、どこでもオフラインでプライベートAIを使用できます。
XiaomiMiMo
MiMo Audioは小米が開発した音声言語モデルで、大規模な事前学習により強力な少サンプル学習能力を発揮します。このモデルは、従来のモデルが特定のタスクの微調整に依存する限界を突破し、音声インテリジェント、音声理解などのタスクで優れた性能を発揮し、オープンソースモデルの中で先進的なレベルに達しています。
MiMo Audioは大規模事前学習に基づく音声言語モデルで、音声インテリジェンスと音声理解のベンチマークテストでオープンソースモデルのSOTA性能を達成しました。このモデルは強力な少サンプル学習能力を示し、学習データに含まれないタスクに汎化でき、音声変換、スタイル移行、音声編集などのさまざまな音声タスクをサポートします。
PerceptronAI
Isaac-0.1は感知会社が発表した最初のオープンソースの視覚言語モデルで、20億のパラメータを持ち、現実世界のアプリケーション向けに設計されています。このモデルはマルチモーダル理解と空間推論において優れた性能を発揮し、それよりも50倍以上大きいモデルを上回る性能を達成し、新しい効率基準を確立しました。
lmms-lab
LLaVA-OneVision-1.5は、完全にオープンソースの一連の大型マルチモーダルモデルで、ネイティブ解像度の画像でトレーニングすることで、低コストで高度な性能を実現しています。このモデルは、複数のマルチモーダルベンチマークテストで卓越した性能を発揮し、Qwen2.5-VLなどの競合モデルを上回っています。
inclusionAI
LLaDA-MoEは拡散原理に基づいて構築された新しい混合専門家言語モデルで、最初のオープンソースのMoE拡散大規模言語モデルです。約20兆個のトークンで最初から事前学習され、総パラメータは70億で、推論時には14億のパラメータのみがアクティブ化されます。コード生成や数学的推論などのタスクで卓越した性能を発揮します。
allura-forge
MiMoは、小米が推論タスク用に最初から訓練した大規模言語モデルシリーズです。事前学習と事後学習の戦略を最適化することで、数学とコードの推論タスクで卓越した性能を発揮します。プロジェクトでは、7Bパラメータ規模の複数のバージョンがオープンソース化されており、基礎モデル、SFTモデル、RLモデルが含まれます。
OpenGVLab
InternVL3.5はオープンソースのマルチモーダルモデルファミリーの新メンバーで、InternVLシリーズの汎用性、推論能力、推論効率を大幅に向上させ、GUIインタラクションなどの新機能をサポートし、オープンソースのマルチモーダル大規模言語モデルの先進水準に達しています。
InternVL3.5-4Bはオープンソースのマルチモーダルモデルシリーズの中規模版で、4.7億のパラメータを含み、先進的なカスケード強化学習フレームワークとビジュアル解像度ルーター技術を採用しており、マルチモーダル推論能力と効率を大幅に向上させています。
InternVL3.5-1BはInternVLシリーズのオープンソースマルチモーダルモデルで、パラメータ数は11億で、そのうちビジュアルパラメータが3億、言語パラメータが8億を含んでいます。このモデルは汎用性、推論能力、推論効率を大幅に向上させ、GUIインタラクションなどの新機能をサポートしています。
InternVL3.5-14BはInternVLシリーズのオープンソースのマルチモーダルモデルで、汎用性、推論能力、推論効率が大幅に向上し、GUIインタラクションなどの新機能をサポートし、商用モデルとの性能差を縮小しました。
セレナは強力なオープンソースのコーディングエージェントツールキットで、大規模言語モデル(LLM)をコードベース上で直接動作するフル機能のエージェントに変えることができます。IDEに似た意味論的なコード検索と編集ツールを提供し、様々なプログラミング言語をサポートし、MCPプロトコルまたはAgnoフレームワークを介して様々なLLMと統合することができます。
ローカルの大規模言語モデルとMCPサーバーを接続するTypeScriptブリッジプロジェクトで、Webインターフェイスを通じてオープンソースモデルがClaudeのようなツール機能を使用できるようにし、ファイルシステム、ウェブ検索、複雑な推論などの機能をサポートします。
Model Context Protocol (MCP) は、Anthropicが公開したオープンソースのプロトコルで、大規模言語モデル (LLM) と外部データソースおよびシステムの接続の標準化問題を解決することを目的としています。構造化されたフレームワークを提供することで、モデルが外部コンテキストを統合および利用できるようにし、その機能を拡張し、応答の精度を向上させます。MCPは、知識拡張、外部ツールの呼び出し、事前記述されたプロンプトなどの機能をサポートしています。
MacPilot CLIはオープンソースツールで、MCPプロトコルを介して大規模言語モデルとmacOSシステムをやり取りさせ、システム操作機能を提供します。
MacPilot CLIはオープンソースのツールで、MCPプロトコルを通じて大規模言語モデルとmacOSシステムをやり取りさせ、システム操作機能を提供します。
このプロジェクトはModel Context Protocol(MCP)を通じて、大規模言語モデルが直接Maxオーディオ処理ソフトウェア内のサウンドエフェクトモジュールを理解し、生成できるようにします。サウンドエフェクトモジュールの解釈、修正、作成をサポートし、LLMとのインターフェイスを提供します。
このプロジェクトは、Model Context Protocol (MCP) 標準に基づくドキュメント処理サーバーです。ベクトルデータベースと MCP インターフェースを構築することで、AI アシスタントが外部のドキュメントリソースにアクセスできるようにし、大規模言語モデルの知識制限を突破します。プロジェクトにはドキュメント処理パイプラインと MCP サーバーの 2 つの主要コンポーネントが含まれており、複数の埋め込みモデルとファイル形式をサポートし、最新の技術ドキュメントの検索やプライベートコードベースの理解などのシナリオに適用できます。
モデルコンテキストプロトコル(MCP)はオープンソースのプロトコルで、一連の参考実装とコミュニティによって開発されたサーバーを提供し、大規模言語モデル(LLM)に安全で制御可能なツールとデータソースへのアクセスを提供することを目的としています。これらのサーバーは、MCPの多様性と拡張性を示しており、ファイルシステム操作からデータベース統合、ウェブ検索からAI画像生成まで、さまざまな機能をカバーしています。
モデルコンテキストプロトコル(MCP)はオープンソースのプロトコルで、大規模言語モデル(LLM)がツールやデータソースに安全かつ制御可能にアクセスできるようにする一連の参考実装とコミュニティによって構築されたサーバーを提供します。このプロジェクトには、ファイルシステム、データベース、検索、API統合などの分野にまたがるさまざまな機能のサーバー実装が含まれており、TypeScriptとPython SDKによる開発をサポートしています。
One APIはオープンソースプロジェクトで、標準的なOpenAI API形式で様々な大規模モデルへの統一アクセスインターフェースを提供します。複数の大規模モデルとサードパーティの代理サービスをサポートし、負荷分散、トークン管理、ユーザーグループ化などの機能を備えており、様々なデプロイメントシナリオに適しています。
オープンソースの埋め込みモデル、ベクトルデータベース、およびGemini大規模言語モデルを使用して構築されたRAGシステムで、ローカルのドキュメント処理と動的なインデックス更新をサポートします。
Model Context Protocol (MCP) はオープンソースのプロトコルで、一連のリファレンス実装とコミュニティによって構築されたサーバーを提供し、大規模言語モデル (LLM) がツールやデータソースに安全かつ制御可能にアクセスできるようにします。このプロジェクトには、ファイルシステム、データベース、Git、Slackなど、さまざまな分野に対応した複数のサーバー実装が含まれており、TypeScriptとPythonのSDKをサポートしています。
これは、複数のオープンソースAIプロジェクトのリストで、自動化エージェント、大規模言語モデル、画像生成からAI開発フレームワークまで、複数の分野をカバーしています。これらのプロジェクトは、開発者がAI技術を活用して収益を上げるのを支援することを目的としており、スマートアシスタントの構築、自動化ワークフロー、コンテンツ生成などのアプリケーションが含まれます。
MCP-OpenLLMは、さまざまなMCPサーバーとオープンソースの大規模言語モデル(LLM)をシームレスに統合するためのLangChainラッパーで、LangChainコミュニティモデルの使用もサポートしています。
Model Context Protocol (MCP) はオープンソースのプロトコルで、一連の参考実装とコミュニティ開発のサーバーを提供し、大規模言語モデル(LLM)が安全かつ制御可能にツールやデータソースにアクセスできるようにします。このプロジェクトには、ファイルシステム操作、データベースアクセス、Git管理、Slack統合など、様々な機能のサーバー実装が含まれており、TypeScriptとPython SDKをサポートしています。
MCP - OpenLLMは、異なるMCPサーバーとオープンソースの大規模言語モデル(LLMs)をシームレスに統合するためのLangChainラッパーツールで、LangChainコミュニティモデルの使用をサポートしています。
モデルコンテキストプロトコル(MCP)はオープンソースのプロトコルで、一連の参照実装とコミュニティ開発のサーバーを提供し、大規模言語モデル(LLM)がツールやデータソースに安全かつ制御可能にアクセスできるようにします。このプロジェクトには、ファイルシステム、データベース、Git、Slackなどの複数の分野にまたがるさまざまなタイプのサーバー実装が含まれており、MCPの多様性と拡張性を示しています。
Model Context Protocol (MCP) はオープンソースのプロトコルで、大規模言語モデル(LLM)に安全で制御されたツールやデータソースへのアクセスを提供する一連の参照実装とコミュニティ開発のサーバーを提供します。このプロジェクトには、ファイルシステム操作、Git統合、データベースアクセスなどのさまざまな機能のサーバーが含まれており、TypeScriptとPythonのSDKを使用して新しいサービスを迅速に開発できます。
このプロジェクトは、PythonベースのMCPサーバーを提供し、OSV(オープンソースの脆弱性)データをAIアシスタントまたは大規模言語モデルと統合し、MCPプロトコルを通じてツールとリソースを公開し、LLMのワークフローと機能を強化します。
モデルコンテキストプロトコル(MCP)は、標準化されたインターフェースを通じて大規模言語モデル(LLM)を外部ツール、サービス、データソースとシームレスにやり取りさせ、統合プロセスを簡素化し、AIの機能を拡張するオープンソースのプロトコルです。