中国電信人工知能研究院が星の言語大規模モデルTeleChat3シリーズをオープンソースとして公開しました。このシリーズには1兆パラメータのMoEモデルと密な構造モデルが含まれています。このシリーズは完全に国内の万カード計算力プールに基づいてトレーニングされ、データ規模は1.5兆トークンに達し、全スタックの国内製品化を実現しました。これは、中国が超大規模AIモデルの自主制御において重要な突破を遂げたことを示しています。
アブダビの人工知能グループであるG42は、オープンソースのイングリッシュ・ヒンディー語大規模言語モデルNANDA87Bを発表しました。このモデルは870億のパラメータを持ち、初期バージョンのアップグレード版です。このモデルは、ムハンマド・ビン・ザイド・アーリャティ人工知能大学とG42傘下のInception社およびチップメーカーのCerebrasが共同で開発し、現在Hugging Faceプラットフォームで重みが公開されており、開発者やクリエイター、企業が自由に使用や機能拡張が可能です。
日本のデータ科学者である本田崇人がオープンソースプログラミング言語「Sui」を発表し、大規模言語モデルが生成するコードの正確性を解決することを目指しています。100%の正確性を実現できると主張しています。そのデザインコンセプトは日本の美意識「粋」からインスピレーションを得ており、簡潔さと不要な要素の排除を強調しています。コア原則には、ゼロの文法エラー率を保証することと、変数に数字を使用することが含まれます。
スタートアップ企業Starcloudが宇宙軌道上での大規模言語モデル学習に成功し、世界初の事例となった。衛星はNVIDIA H100チップを搭載し、GoogleのオープンソースモデルGemmaを基にしたアプリケーションを実行。宇宙データセンターの新時代を切り開き、商業サービス提供を計画している。....
さまざまな大規模言語モデルに対応したオープンソースのAIエージェントCLIツールです。
Dream 7Bは、最も強力なオープンソースの大規模言語モデルです。
強化学習により、オープンソースソフトウェアの進化における大規模言語モデルの推論能力を向上させます。
百川智能が開発した、医療現場向けに最適化されたオープンソースの大規模言語モデルです。優れた汎用性と医療分野での高い性能を備えています。
Openai
$2.8
入力トークン/百万
$11.2
出力トークン/百万
1k
コンテキスト長
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$1
$10
256
Baidu
128
$6
$24
$2
$20
$4
$16
$8
$240
52
ExaltedSlayer
Gemma 3 27B IT QATのMLX MXFP4量子化バージョンで、Googleによって開発された軽量オープンソースのマルチモーダルモデルです。このモデルは、テキストと画像の入力を同時に処理し、テキスト出力を生成することができ、128Kの大規模コンテキストウィンドウを持ち、140種類以上の言語をサポートし、さまざまなテキスト生成と画像理解タスクに適しています。
lapa-llm
Lapa LLM v0.1.2は、Gemma - 3 - 12Bをベースに開発されたウクライナ語処理用のオープンソース大規模言語モデルで、ウクライナ語の自然言語処理タスクに特化し、ウクライナ語処理で卓越した性能を発揮します。
Open-Bee
Bee-8Bは、データ品質に特化した、最先端の完全オープンソースのマルチモーダル大規模言語モデルです。専用モデルとの性能ギャップを縮小することを目的としています。高品質のHoney-Data-15Mコーパスと先進的なデータ処理パイプラインHoneyPipeを使用することで、複雑な推論などの分野で卓越した性能を発揮しています。
Kwaipilot
KAT-Dev-72B-Expは、ソフトウェアエンジニアリングタスクに使用される720億パラメータのオープンソース大規模言語モデルで、SWE-Bench Verifiedベンチマークテストで74.6%の正解率を達成し、KAT-Coderモデルの実験的な強化学習バージョンです。
unsloth
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、70億と80億の2種類のパラメータ規模を提供します。このモデルは1000種類以上の言語をサポートし、完全にコンプライアンスでオープンな学習データを使用し、その性能はクローズドソースモデルに匹敵します。Apertusは15Tのトークンで事前学習され、段階的なコース学習方法を採用し、最大65,536トークンのコンテキスト長をサポートします。
redponike
ApertusはスイスのAIによって開発された完全にオープンな多言語大規模言語モデルで、パラメータ規模は80億と700億で、1000種以上の言語と長文脈処理をサポートし、完全にコンプライアンスの取れたオープンな学習データのみを使用し、性能はクローズドソースモデルに匹敵します。
jeevanrushi07
OpenLLaMA 3B v2はTransformerアーキテクチャに基づくオープンソースの大規模言語モデルで、30億のパラメータを持っています。このモデルはMITライセンスを採用しており、主に英文テキスト生成タスクに使用され、チャットボットなどのさまざまなアプリケーションシナリオをサポートします。
Lapa LLM 12B PTは、Google Gemma 3 - 12Bをベースに開発されたオープンソースの大規模言語モデルで、ウクライナ語処理に特化して最適化されています。ウクライナの複数の大学の研究チームによって開発され、ウクライナ語処理において卓越した性能を発揮し、効率的な指令微調整とマルチモーダル能力を備えています。
VLA-Adapter
VLA-Adapterは、Libero-Spatial上で訓練されたマイクロビジョン言語アクションモデルで、Prismatic-VLMアーキテクチャを採用し、大規模言語モデルのバックボーンとしてQwen2.5-0.5Bのみを使用しています。このモデルは、ロボットのベンチマークテストで、パラメータ規模がより大きいオープンソースのVLAモデルを上回り、高性能なビジョン - 言語 - アクションの理解と実行を実現しています。
geoffmunn
これはQwen/Qwen3-0.6B言語モデルのGGUF量子化バージョンで、6億のパラメータを持つコンパクトな大規模言語モデルで、低リソースデバイスでの超高速推論用に設計されています。llama.cpp、LM Studio、OpenWebUI、GPT4Allなどのフレームワークをサポートし、どこでもオフラインでプライベートAIを使用できます。
inclusionAI
LLaDA-MoEは拡散原理に基づいて構築された新しい混合専門家言語モデルで、最初のオープンソースのMoE拡散大規模言語モデルです。約20兆個のトークンで最初から事前学習され、総パラメータは70億で、推論時には14億のパラメータのみがアクティブ化されます。コード生成や数学的推論などのタスクで卓越した性能を発揮します。
allura-forge
MiMoは、小米が推論タスク用に最初から訓練した大規模言語モデルシリーズです。事前学習と事後学習の戦略を最適化することで、数学とコードの推論タスクで卓越した性能を発揮します。プロジェクトでは、7Bパラメータ規模の複数のバージョンがオープンソース化されており、基礎モデル、SFTモデル、RLモデルが含まれます。
OpenGVLab
InternVL3.5はオープンソースのマルチモーダルモデルファミリーの新メンバーで、InternVLシリーズの汎用性、推論能力、推論効率を大幅に向上させ、GUIインタラクションなどの新機能をサポートし、オープンソースのマルチモーダル大規模言語モデルの先進水準に達しています。
lmstudio-community
Seed - OSS - 36B - InstructはByteDance - Seedによって開発された大規模言語モデルで、パラメータ数は360億に達し、Apache 2.0オープンソースライセンスを採用しています。このモデルはtransformersライブラリに基づいて構築され、vllmとmlx技術の最適化をサポートし、特にApple Siliconチップに対して8ビット量子化処理を行い、効率的なテキスト生成能力を提供します。
gabriellarson
Seed-OSSは、バイトダンスのSeedチームによって開発されたオープンソースの大規模言語モデルシリーズで、強力な長文脈処理、推論、およびエージェント間のインタラクション能力を備えています。たった12Tトークンで訓練され、複数の公開ベンチマークテストで優れた成績を収め、最大512Kの原長文脈処理をサポートしています。
yarikdevcom
Seed-OSS-36B-InstructはByteDanceによって開発された360億パラメータの大規模言語モデルで、Apache-2.0ライセンスに基づいてオープンソース化されています。このモデルは、指令追従タスクに特化して最適化されており、テキスト生成と対話機能をサポートし、強力な理解と生成能力を持っています。
dnakov
Seed-OSS-36B-Instructは、バイトドングが開発したテキスト生成モデルで、36Bパラメータ規模の大規模言語モデルアーキテクチャに基づいており、指令追従タスクに特化して最適化されています。このモデルは英語と中国語の両方をサポートし、Apache-2.0オープンソースライセンスを採用しており、vllmとmlx推論フレームワークを通じて高効率にデプロイできます。
Seed-OSS-36B-Instructは、バイトダンスによって開発された360億パラメータの大規模言語モデルであり、MLXフレームワークに基づいて最適化され、テキスト生成タスクに特化しています。このモデルは英語と中国語の両方をサポートし、Apache 2.0オープンソースライセンスを採用しており、強力な指令追従とコンテンツ生成能力を備えています。
ByteDance-Seed
Seed-OSSは、バイトダンスのSeedチームによって開発されたオープンソースの大規模言語モデルシリーズで、強力な長文脈処理、推論、エージェントインタラクション能力および汎用性能を備えています。このモデルは、わずか12Tトークンで訓練され、複数の公開ベンチマークテストで優れた成績を収めています。
JetLM
SDARは、自己回帰と離散拡散モデリング戦略を統合した新しい大規模言語モデルです。ARモデルの効率的な訓練と拡散モデルの並列推論の利点を組み合わせています。一般的なタスクではSOTAオープンソースARモデルと同等の性能を発揮し、科学的推論タスクでは優れた性能を示し、最強の拡散言語モデルとなっています。
セレナは強力なオープンソースのコーディングエージェントツールキットで、大規模言語モデル(LLM)をコードベース上で直接動作するフル機能のエージェントに変えることができます。IDEに似た意味論的なコード検索と編集ツールを提供し、様々なプログラミング言語をサポートし、MCPプロトコルまたはAgnoフレームワークを介して様々なLLMと統合することができます。
ローカルの大規模言語モデルとMCPサーバーを接続するTypeScriptブリッジプロジェクトで、Webインターフェイスを通じてオープンソースモデルがClaudeのようなツール機能を使用できるようにし、ファイルシステム、ウェブ検索、複雑な推論などの機能をサポートします。
Model Context Protocol (MCP) は、Anthropicが公開したオープンソースのプロトコルで、大規模言語モデル (LLM) と外部データソースおよびシステムの接続の標準化問題を解決することを目的としています。構造化されたフレームワークを提供することで、モデルが外部コンテキストを統合および利用できるようにし、その機能を拡張し、応答の精度を向上させます。MCPは、知識拡張、外部ツールの呼び出し、事前記述されたプロンプトなどの機能をサポートしています。
MacPilot CLIはオープンソースのツールで、MCPプロトコルを通じて大規模言語モデルとmacOSシステムをやり取りさせ、システム操作機能を提供します。
このプロジェクトは、Model Context Protocol (MCP) 標準に基づくドキュメント処理サーバーです。ベクトルデータベースと MCP インターフェースを構築することで、AI アシスタントが外部のドキュメントリソースにアクセスできるようにし、大規模言語モデルの知識制限を突破します。プロジェクトにはドキュメント処理パイプラインと MCP サーバーの 2 つの主要コンポーネントが含まれており、複数の埋め込みモデルとファイル形式をサポートし、最新の技術ドキュメントの検索やプライベートコードベースの理解などのシナリオに適用できます。
このプロジェクトはModel Context Protocol(MCP)を通じて、大規模言語モデルが直接Maxオーディオ処理ソフトウェア内のサウンドエフェクトモジュールを理解し、生成できるようにします。サウンドエフェクトモジュールの解釈、修正、作成をサポートし、LLMとのインターフェイスを提供します。
NetBrain MCPは、オープンソースのネットワーク運用管理プラットフォームです。Model Context Protocolを通じて大規模言語モデルとネットワーク機器を接続し、AI駆動のネットワーク設定、診断、管理を実現します。専用のWebターミナルインターフェースとネットワークトポロジーの可視化機能も提供します。
モデルコンテキストプロトコル(MCP)はオープンソースのプロトコルで、一連の参考実装とコミュニティによって開発されたサーバーを提供し、大規模言語モデル(LLM)に安全で制御可能なツールとデータソースへのアクセスを提供することを目的としています。これらのサーバーは、MCPの多様性と拡張性を示しており、ファイルシステム操作からデータベース統合、ウェブ検索からAI画像生成まで、さまざまな機能をカバーしています。
モデルコンテキストプロトコル(MCP)はオープンソースのプロトコルで、大規模言語モデル(LLM)がツールやデータソースに安全かつ制御可能にアクセスできるようにする一連の参考実装とコミュニティによって構築されたサーバーを提供します。このプロジェクトには、ファイルシステム、データベース、検索、API統合などの分野にまたがるさまざまな機能のサーバー実装が含まれており、TypeScriptとPython SDKによる開発をサポートしています。
オープンソースの埋め込みモデル、ベクトルデータベース、およびGemini大規模言語モデルを使用して構築されたRAGシステムで、ローカルのドキュメント処理と動的なインデックス更新をサポートします。
Model Context Protocol (MCP) はオープンソースのプロトコルで、一連のリファレンス実装とコミュニティによって構築されたサーバーを提供し、大規模言語モデル (LLM) がツールやデータソースに安全かつ制御可能にアクセスできるようにします。このプロジェクトには、ファイルシステム、データベース、Git、Slackなど、さまざまな分野に対応した複数のサーバー実装が含まれており、TypeScriptとPythonのSDKをサポートしています。
これは、複数のオープンソースAIプロジェクトのリストで、自動化エージェント、大規模言語モデル、画像生成からAI開発フレームワークまで、複数の分野をカバーしています。これらのプロジェクトは、開発者がAI技術を活用して収益を上げるのを支援することを目的としており、スマートアシスタントの構築、自動化ワークフロー、コンテンツ生成などのアプリケーションが含まれます。
Model Context Protocol (MCP) はオープンソースのプロトコルで、一連の参考実装とコミュニティ開発のサーバーを提供し、大規模言語モデル(LLM)が安全かつ制御可能にツールやデータソースにアクセスできるようにします。このプロジェクトには、ファイルシステム操作、データベースアクセス、Git管理、Slack統合など、様々な機能のサーバー実装が含まれており、TypeScriptとPython SDKをサポートしています。
MCP-OpenLLMは、さまざまなMCPサーバーとオープンソースの大規模言語モデル(LLM)をシームレスに統合するためのLangChainラッパーで、LangChainコミュニティモデルの使用もサポートしています。
MCP - OpenLLMは、異なるMCPサーバーとオープンソースの大規模言語モデル(LLMs)をシームレスに統合するためのLangChainラッパーツールで、LangChainコミュニティモデルの使用をサポートしています。
Model Context Protocol (MCP) はオープンソースのプロトコルで、大規模言語モデル(LLM)に安全で制御されたツールやデータソースへのアクセスを提供する一連の参照実装とコミュニティ開発のサーバーを提供します。このプロジェクトには、ファイルシステム操作、Git統合、データベースアクセスなどのさまざまな機能のサーバーが含まれており、TypeScriptとPythonのSDKを使用して新しいサービスを迅速に開発できます。
モデルコンテキストプロトコル(MCP)はオープンソースのプロトコルで、一連の参照実装とコミュニティ開発のサーバーを提供し、大規模言語モデル(LLM)がツールやデータソースに安全かつ制御可能にアクセスできるようにします。このプロジェクトには、ファイルシステム、データベース、Git、Slackなどの複数の分野にまたがるさまざまなタイプのサーバー実装が含まれており、MCPの多様性と拡張性を示しています。
このプロジェクトは、PythonベースのMCPサーバーを提供し、OSV(オープンソースの脆弱性)データをAIアシスタントまたは大規模言語モデルと統合し、MCPプロトコルを通じてツールとリソースを公開し、LLMのワークフローと機能を強化します。
モデルコンテキストプロトコル(MCP)は、標準化されたインターフェースを通じて大規模言語モデル(LLM)を外部ツール、サービス、データソースとシームレスにやり取りさせ、統合プロセスを簡素化し、AIの機能を拡張するオープンソースのプロトコルです。
モデルコンテキストプロトコル(MCP)はオープンソースプロトコルで、大規模言語モデルに外部データソースとツールを標準化して接続する方法を提供し、リソース、プロンプト、ツール、サンプリングなどの機能をサポートします。本稿では、MCPツールサービスの開発と使用方法を重点的に紹介します。