MiniMaxがM2.5モデルを発表。108日間で3回目のアップグレードとなるM2シリーズの最新版。プログラミング・検索・オフィス作業など多分野で高性能を発揮し、能力・効率・コストの三要素を革新。オープンソース版をModelScopeで公開、ゼロコード使用からプライベート展開まで対応。低コストAgent時代の実現を目指す。....
DEEPXと神州数码が提携し、高性能で低消費電力のチップ技術を活用して、中国市場における物理AIの応用を加速し、高性能と超低消費電力の間の市場空きを埋めることを目指す。
アマゾン、グーグル、Meta、マイクロソフトなどのグローバルハイテク大手がAIインフラ投資競争を激化させ、2026年までにデータセンター建設や高性能チップ調達などに計6600億ドルの資本支出を見込んでいる。....
OpenRouterプラットフォームは最近、「Pony Alpha」という名前の無料モデルをリリースしました。性能が非常に高く、200Kの文脈窓と131Kの出力トークンをサポートし、コード作成や推論において優れたパフォーマンスを発揮しています。業界から注目を集めています。
ワンストップAI APIでトップレベルのモデルにアクセスし、迅速に統合し、コストを節約し、高性能で開発者にやさしいです。
高性能のメール検証サービスで、99.9%の正確率で、返信メールを減らし、送信者の評判を守ります。
1つのAPIですべてのトップレベルのAIモデルに接続し、高性能でコストパフォーマンスが高く、複数のタイプの生成をサポートします。
Devstral 2オープンソースコーディングモデルとMistral Vibe CLI。ソフトウェアエンジニアリングタスクを効率的に解決します。
Openai
$2.8
入力トークン/百万
$11.2
出力トークン/百万
1k
コンテキスト長
Anthropic
$7
$35
200
$21
$105
Alibaba
$1
$10
256
Baidu
-
128
$4
$16
Bytedance
$0.8
$2
$1.6
$0.4
$1.75
$14
400
$15
Huawei
32
Chatglm
$8
Deepseek
Tencent
tencent
混元ビデオ - 1.5は軽量級で高性能なビデオ生成モデルで、わずか83億のパラメータでトップレベルのビデオ品質を提供し、使用の敷居を大幅に下げます。消費者向けGPUでスムーズに動作し、テキストからビデオ、画像からビデオの生成をサポートし、すべての開発者やクリエイターが簡単に使用できます。
cyankiwi
ERNIE-4.5-VL-28B-A3B-Thinking AWQ - INT8は、百度のERNIE-4.5アーキテクチャに基づくマルチモーダル大規模言語モデルで、AWQ量子化技術を通じて8ビット精度を実現し、高性能を維持しながらメモリ要件を大幅に削減します。このモデルは、視覚推論、STEM問題解決、画像分析などの分野で優れた性能を発揮し、強力なマルチモーダル理解と推論能力を備えています。
TheStageAI
TheWhisper-Large-V3-Turboは、OpenAI Whisper Large V3モデルの高性能ファインチューニング版で、TheStage AIによって多プラットフォームのリアルタイム、低遅延、低消費電力の音声テキスト変換推論に最適化されています。ストリーミング文字起こし、単語のタイムスタンプ、拡張可能なパフォーマンスをサポートし、リアルタイム字幕、会議、デバイス端末の音声インターフェイスなどのシーンに適しています。
TheWhisper-Large-V3はOpenAI Whisper Large V3モデルの高性能ファインチューニング版で、TheStage AIによって多プラットフォーム(NVIDIA GPUとApple Silicon)のリアルタイム、低遅延、低消費電力の音声テキスト変換推論用に最適化されています。
richardyoung
これは高性能の4ビット量子化版のKimi K2 Instructモデルで、MLXフレームワークを使用してApple Silicon(M1/M2/M3/M4)Mac上で実行するように最適化されています。このモデルは6710億のパラメータを持ち、128Kのコンテキストウィンドウをサポートし、品質と効率の間で優れたバランスを実現しており、ほとんどの実際のデプロイに理想的な選択肢です。
Daemontatox
Zirel-3は、GLM - 4.5 - Air - REAP - 82B - A12Bをベースにした特定の微調整モデルで、REAP(ルーティング重み付きエキスパート活性化剪定)技術を用いて圧縮された820億パラメータの混合エキスパートモデルです。高性能を維持しながら、モデルサイズを大幅に削減しています。
lightx2v
LoRAに基づく4ステップ推論の高性能動画生成モデルで、Wan2.2蒸留モデルから抽出されたLoRA重みを持ち、柔軟なデプロイメント、効率的なストレージ、優れた生成品質という特徴を備えています。
bullpoint
GLM-4.6-AWQは、智譜AIのGLM-4.6(357B MoE)を高性能AWQ量子化したモデルで、vLLM推論用に最適化されており、本番デプロイのスループットを効果的に向上させます。このモデルは4ビット量子化技術を採用しており、高精度を維持しながら顕著にVRAM使用量を削減します。
codeintegrity-ai
ModernBERT PromptGuardは、大規模言語モデルアプリケーションにおける悪意のあるプロンプト(プロンプト注入や脱獄攻撃を含む)を検出するための高性能二値分類器です。
VLA-Adapter
VLA-Adapterは、Libero-Spatial上で訓練されたマイクロビジョン言語アクションモデルで、Prismatic-VLMアーキテクチャを採用し、大規模言語モデルのバックボーンとしてQwen2.5-0.5Bのみを使用しています。このモデルは、ロボットのベンチマークテストで、パラメータ規模がより大きいオープンソースのVLAモデルを上回り、高性能なビジョン - 言語 - アクションの理解と実行を実現しています。
kikekewl
MLXはQwen/Qwen3-Next-80B-A3B-Thinkingベースモデルに基づいて構築されたテキスト生成ライブラリで、効率的な推論とテキスト生成タスクに特化しています。このモデルは先進的なアーキテクチャ設計を採用し、大規模パラメータ下での高性能なテキスト処理をサポートします。
MLXライブラリに基づいて最適化されたテキスト生成モデルで、Qwen/Qwen3-Next-80B-A3B-Instruct基礎モデルを採用し、bf16データ型を使用して最適化され、効率的なテキスト生成タスクに特化し、関連分野の開発に高性能なサポートを提供します。
cpatonn
Qwen3-Next-80B-A3B-Instruct-AWQ-4bitは、Qwen3-Next-80B-A3B-Instructモデルを4ビットAWQ量子化した高効率版です。このモデルは混合注意力機構と高疎なエキスパート混合アーキテクチャを採用し、最大262Kトークンのコンテキスト長をサポートし、高性能を維持しながら大幅に計算リソースの要求を削減します。
dinhquangson
MonkeyOCR-pro-1.2B Vision GGUFは、光学文字認識(OCR)とドキュメント分析に特化した高性能なビジュアル言語モデルです。このモデルはGGUF形式を採用し、多言語処理をサポートし、優れたOCR精度と推論速度を備えており、さまざまなドキュメント処理シーンに適しています。
unsloth
NVIDIA Nemotron Nano 9B v2 は NVIDIA が開発した高性能な大規模言語モデルで、Mamba2-Transformer 混合アーキテクチャを採用し、多言語推論とチャットタスクをサポートし、複数のベンチマークテストで優れた性能を発揮し、特に実行時の「思考」予算管理機能をサポートしています。
inclusionAI
Ring-mini-2.0はLing 2.0アーキテクチャを基に深度に最適化された高性能推論型MoEモデルで、総パラメータが160億、活性化パラメータが14億に過ぎないが、100億規模以下の密集モデルと同等の総合推論能力を実現しています。論理推論、コード生成、数学タスクにおいて優れた性能を発揮し、12.8万の長文脈処理と毎秒300以上のトークンの高速生成をサポートしています。
Kwai-Klear
Klearは、快手Kwai-Klearチームによって開発された疎なハイブリッドエキスパート(MoE)の大規模言語モデルで、高性能と推論効率の特徴を備えています。総パラメータは460億で、活性化パラメータはわずか25億で、複数の能力ベンチマークテストで優れた成績を収め、実際のアプリケーションに効率的で強力な解決策を提供します。
DevQuasar
本プロジェクトは、騰訊の混元-MT-7B大規模言語モデルの量子化バージョンを提供します。モデル圧縮技術を通じて計算と記憶の要件を削減し、知識をすべての人に利用可能にすることを目指し、高性能なAIモデルをより普及させ、使いやすくします。
2imi9
GPT-OSS-20B-NVFP4はOpenAIのGPT-OSS-20Bモデルの量子化バージョンで、NVIDIAの先進的なNVFP4量子化形式を採用しています。このモデルは、著しいメモリ効率の向上を維持しながら、MXFP4量子化と比較してより優れた正確性の保持率を提供し、高性能推論シナリオ向けに設計されています。
brandonbeiler
これはOpenGVLab/InternVL3_5-8Bのfp8動的(w8a8)量子化バージョンで、vLLMの高性能推論に対して最適化されています。FP8動的量子化技術を採用し、ビジュアル理解能力を維持しながら、メモリ使用量を大幅に削減し、推論速度を向上させます。
Scraplingは適応型ウェブページのスクレイピングライブラリで、ウェブサイトの変化を自動的に学習し、要素を再配置します。複数のスクレイピング方法とAI統合をサポートし、高性能な解析と開発者に優しい体験を提供します。
ソロンは、高効率、オープン、エコシステムにやさしいJavaのエンタープライズアプリケーション開発フレームワークで、全シナリオの開発に対応し、高性能、低メモリ消費、高速起動、小さなパッケージサイズなどの特徴があり、Java8からJava24まで、およびGraalVMネイティブランタイムと互換性があります。
hyper - mcpはWebAssemblyプラグインに基づく高性能MCPサーバーで、コンテナレジストリを通じたプラグイン配布をサポートし、さまざまなAIアプリケーションシーンに適しています。
MCppサーバーはC++で書かれた高性能のMinecraftサーバーで、高速かつ効率的なゲーム体験を提供しながら、Javaクライアントとの互換性も維持しています。
XiYan MCPサーバーはXiYan - SQLに基づくモデルコンテキストプロトコルサーバーで、自然言語でデータベースをクエリすることをサポートし、複数のLLMモデルの設定とデータベース接続方法を提供し、ローカルまたはリモートでのデプロイに適しています。
ht-mcpは、Rustで実装された高性能なヘッドレスターミナルMCPサーバーで、マルチセッション管理とWebインターフェイスのプレビューをサポートしています。
FortunaMCPは高度なMCPサーバーで、高品質な乱数生成に特化しており、AIアプリケーションのシミュレーション、モデリング、ゲームメカニズムなどのシナリオに適しています。
MCPをベースとした高性能なPDFからMarkdownへの変換サービスで、ローカルファイルとURLの一括処理に対応し、文書構造を保持し、出力をスマートに最適化します。
Unity Code MCPは、Rustで構築された高性能のMCPサーバーで、AIエージェントが自主的にUnityコードを作成するために設計されており、軽量で効率的なコンパイルフィードバックとテスト実行機能を提供します。
Rustをベースにした高性能なローカルRAGシステムで、MCPプロトコルを通じてClaude Desktopと統合され、PDFドキュメントのローカル処理、意味検索、プライバシー保護を実現します。
FAL画像ビデオMCPサーバーは、高性能のMCPプロトコルサーバーで、FAL AIの画像およびビデオ生成に特化しており、ローカルマシンへの自動ダウンロードをサポートしています。ClaudeなどのMCP互換クライアントに適した公共URL、データURL、およびローカルファイルパスを提供します。
高性能なSQLite MCPサーバーで、革新的なCodemodeコード生成方法を採用しています。LLMがGoコードを生成してデータベース操作を実行することで、従来のツール呼び出しに比べて、効率が大幅に向上し、遅延が減少します。
高性能なPython版MCPサーバの実装で、メモリ最適化とインフラストラクチャコンポーネントの追跡に特化し、Claude Desktopとの統合をサポートしますが、仕様上の問題でアーカイブされています。
Gossiphsは、ゼロコンフィグ、高性能の汎用コードファイル関係分析ツールで、複数のプログラミング言語をサポートし、tree - sitterとgitに基づいて分析を行い、Python SDKとMCPプロトコルをサポートし、AIとの統合を容易にします。
Rust MCPファイルシステムは、Rustに基づく高性能、非同期、軽量なMCPサーバーで、ファイルシステム操作を効率的に処理するために設計されており、安全な読み取り専用のデフォルト設定、高度なグローバル検索、およびネストされたディレクトリのサポートを提供します。
エンタープライズレベルの高性能MCPサーバー。WasmとRustをサポートし、LLMにツール、リソース、プロセスプロンプトの統合プラットフォームを提供します。
高性能のMCPサーバーで、LLMとMongoDBの間に効率的な知識インターフェースを提供し、小さなコンテキストウィンドウの最適化と複数の分野のデータモデルをサポートします。
高性能なバッチコード理解MCPツールキットで、Javaに最適化され、全景コンテキスト、構造マッピング、正確な位置特定機能を提供し、AIエージェントが大規模なコードベースを効率的に探索するのを支援します。
Torobの製品検索機能とInstagramのコンテンツ分析機能を統合した本番レベルのMCPサーバーの実装で、高性能なFastMCPに基づいて構築され、完全なMCPプロトコル仕様をサポートし、デュアルモード操作とモジュール化設計の特徴を持っています。
MCPアーキテクチャに基づく高性能画像圧縮マイクロサービス