快手が非技術ユーザー向けのAIデスクトップエージェント「KroWork」を発表。自然言語指示でファイル処理、ブラウザ自動化、アプリ生成などのオフィス業務をサポート。繰り返し作業をローカルアプリに変換可能で追加費用不要。全操作はセキュアなサンドボックス環境で実行され、データはクラウドにアップロードされずプライバシーを保護。....
GoogleフォトがAI「ワードローブプランニング」機能を発表。深層学習でユーザーの写真から服飾アイテムを自動識別・分類し、デジタルパーソナルワードローブを構築。ジュエリーやトップスなどのカテゴリで整理し、コーディネートの意思決定効率を向上。GoogleのAIファッションインタラクション分野における重要な実装。 (178文字)....
アリババグループの百霊大規模モデルチームは、本日、パラメータ数が1兆に達するフラッグシップモデル「Ling-2.6-1T」をオープンソース化しました。このモデルはパラメータの積み重ねを追求せず、命令実行、ツール適応、長いコンテキスト能力の最適化に重点を置いています。革新的なハイブリッドアーキテクチャにより、強化学習報酬戦略を活用してトークンコストを削減し、効率的な「高速思考」メカニズムを実現しています。....
AdobeがPhotoshopとLightroomの大規模アップデートを発表。生成AIを3D空間処理に拡張し、2D素材をリアルタイムで回転・傾斜・反転可能な「回転オブジェクト」ツールを搭載。視点調整と環境ビジュアルロジックを自動化し、合成制作の効率と品質を大幅に向上させる。....
ワンストップの音声コンテンツクリエイションプラットフォームで、効率的なオーディオブックの作成をお手伝いします。
AppLaunchFlowはモバイルアプリの迅速なリリースをサポートし、高コンバージョン率のページ、スクリーンショット、ASOツールを提供します。
LoomiはSNSクリエイターのために設計された、世界初の影響力AIエージェントです。ヒットコンテンツの効率的な生産をサポートします。
AI駆動の製品採用とユーザーガイドプラットフォームで、ユーザーのアクティベーションを加速し、エンゲージメントとリテンション率を向上させます。
Google
$0.49
入力トークン/百万
$2.1
出力トークン/百万
1k
コンテキスト長
Openai
$2.8
$11.2
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$6
$24
256
$4
$16
$2
$20
$8
$240
52
Bytedance
$1.2
$3.6
4
onnx-community
SAM3は概念ベースの任意分割モデルで、入力された点やボックスなどのプロンプト情報に基づいて、正確な画像分割マスクを生成することができます。このバージョンはONNX形式のSAM3トラッカーモデルで、Transformers.jsライブラリを通じてブラウザ環境で効率的に動作します。
abr-ai
これはApplied Brain Research(ABR)によって開発された、状態空間モデル(SSM)に基づく英語の自動音声認識モデルです。約1900万のパラメータを持ち、英語の音声を効率的かつ正確にテキストに変換することができます。このモデルは複数のベンチマークデータセットで優れた性能を発揮し、平均単語誤り率はわずか10.61%です。リアルタイム音声認識をサポートし、低コストのハードウェアで動作することができます。
noctrex
本プロジェクトはカナナ1.5 - 15.7B - A3B指令モデルのMXFP4_MOE量子化バージョンで、特定のシナリオでモデルの実行効率を向上させることができます。このモデルはkakaocorp/kanana-1.5-15.7b-a3b-instructをベースに最適化され、ハイブリッドエキスパートアーキテクチャとMXFP4量子化技術を採用しています。
inferencerlabs
Qwen3-Coder-480B-A35B-Instructは4800億パラメータの大型コード生成モデルで、8.5ビット量子化をサポートし、MLXフレームワークに基づいて最適化されています。このモデルはコード生成タスクに特化して設計されており、十分なメモリを搭載したデバイス上で効率的に動作します。
Qwen
Qwen3 - VLは通義シリーズで最も強力なビジュアル言語モデルで、ハイブリッドエキスパートモデルアーキテクチャ(MoE)を採用し、GGUF形式の重みを提供し、CPU、GPUなどのデバイスで効率的な推論をサポートします。モデルは、テキスト理解、ビジュアル感知、空間理解、動画処理などの面で全面的にアップグレードされています。
catalystsec
このプロジェクトは、mlx-lm ライブラリを使用して、動的重み量子化(DWQ)により MiniMax-M2 モデルを 3 ビットに量子化した成果物です。リソースが制限された条件下でも、効率的にテキスト生成タスクを実行でき、関連アプリケーションにより軽量なソリューションを提供します。
redponike
MiniMax - M2は、高効率コーディングとインテリジェントエージェントワークフロー用に特別に開発されたハイブリッドエキスパートモデルで、総パラメータが2300億、活性化パラメータが100億です。このモデルは、コーディングとインテリジェントエージェントタスクで卓越した性能を発揮し、低遅延、低コスト、高スループットの特徴を持ち、作業効率を効果的に向上させます。
cturan
MiniMax-M2は、llama.cppの実験的ブランチに基づいて構築された大規模言語モデルで、ハイブリッドエキスパートアーキテクチャを備え、効率的なテキスト生成と推論タスクをサポートします。このモデルは特定の実験的ブランチが必要で正常に動作します。
LiquidAI
PyLateは、文の類似度計算と情報検索に特化したツールキットで、さまざまなデータセットで効率的な情報検索タスクを実行でき、関連分野の研究とアプリケーションに強力なサポートを提供します。このモデルは8つの言語をサポートし、複数のベンチマークテストで優れた性能を発揮します。
nineninesix
KaniTTSは、リアルタイム対話型AIアプリケーション向けに最適化された高速、高音質のテキスト音声変換モデルです。2段階パイプラインを用いて、大規模言語モデルと高効率オーディオコーデックを組み合わせ、卓越した速度とオーディオ品質を実現します。このモデルはスペイン語をサポートし、4億のパラメータを持ち、サンプリングレートは22kHzです。
これはIntern-S1モデルに基づくMXFP4ハイブリッドエキスパート量子化バージョンで、画像テキストからテキストへのタスクに特化して最適化されており、量子化技術によって推論効率が向上しています。
KaniTTSは、リアルタイム対話型人工知能アプリケーション向けに最適化された高速かつ高忠実度のアラビア語テキスト音声変換モデルです。2段階パイプラインアーキテクチャを採用し、大規模言語モデルと効率的なオーディオコーデックを組み合わせることで、卓越した速度とオーディオ品質を実現し、対話型AI、障害者支援、研究など多くの分野の音声合成ニーズを満たすことができます。
KaniTTSは、リアルタイム対話型AIアプリケーション向けに最適化された高速かつ高忠実度のテキスト音声変換モデルです。独自の2段階アーキテクチャにより、大規模言語モデルと効率的な音声コーデックを組み合わせ、低遅延で高品質な音声合成を実現します。リアルタイムファクターは最低0.2で、リアルタイム速度の5倍の高速合成が可能です。
MiniMaxAI
MiniMax-M2は、コーディングとエージェントのワークフローを最大化するために構築された「ミニ」モデルで、ハイブリッドエキスパートアーキテクチャを採用し、総パラメータは2300億、アクティブなパラメータは100億です。このモデルは、コーディングとエージェントタスクで卓越した性能を発揮し、同時に強力な汎用知能を保持し、コンパクトで高速かつ経済的に効率的な特徴を持っています。
lmstudio-community
Qwen3-VL-2B-Instructは、Qwenチームによって開発された、効率的な画像テキストからテキストへの変換モデルです。このモデルはMLX 8ビット量子化によって最適化されており、特にAppleシリコンチップ搭載のデバイスに適しており、視覚言語タスクを処理し、効率的な解決策を提供することができます。
shorecode
これはGoogleのT5 Efficient Tinyアーキテクチャに基づく軽量なテキスト要約生成モデルで、shorecode/summary-collection-200k-rowsデータセットを使用して訓練され、自動テキスト要約タスクに特化しており、効率的な推論と低いリソース占有という特徴を持っています。
KaniTTS Pretrain v0.3は高速で高忠実度のテキストを音声に変換するモデルで、リアルタイム対話型人工知能アプリケーション向けに最適化されています。2段階パイプラインアーキテクチャを採用し、大規模言語モデルと高効率オーディオコーデックを組み合わせて、超低遅延と高品質の音声合成を実現します。
ubergarm2
これはinclusionAI/Ling-1Tモデルの量子化バージョンのセットで、ik_llama.cppブランチに基づいて開発され、さまざまなメモリとパフォーマンスの要件に合わせた複数の量子化方案を提供します。これらの量子化モデルは、与えられたメモリ使用量で優れた困惑度の性能を提供し、特にMoEアーキテクチャの推論効率を最適化しています。
kmonis48
これはT5-smallアーキテクチャに基づいて微調整された英語からサンスクリット語への翻訳モデルで、50輪の訓練後の検証損失は0.1564に達し、英語のテキストを効率的かつ正確にサンスクリット語に翻訳することができます。
moxin-org
このプロジェクトでは、DeepSeek-V3-0324に対してllama.cppの混合精度量子化を行い、モデルのエッジデバイスへのデプロイの難題を解決し、モデルの実行効率とリソース利用率を向上させました。
ソロンは、高効率、オープン、エコシステムにやさしいJavaのエンタープライズアプリケーション開発フレームワークで、全シナリオの開発に対応し、高性能、低メモリ消費、高速起動、小さなパッケージサイズなどの特徴があり、Java8からJava24まで、およびGraalVMネイティブランタイムと互換性があります。
Cheat Engine MCPブリッジは、AIアシスタントをMCPプロトコルを通じてCheat Engineメモリ分析ツールに接続するプロジェクトです。ユーザーは自然言語の命令で直接プログラムのメモリを照会し、操作することができ、リバースエンジニアリングとデバッグの効率を大幅に向上させます。
ClippyはmacOSターミナルのクリップボードツールで、ファイル参照のコピー、GUI貼り付け、最近のダウンロード管理、パイプラインデータ処理、およびMCPサーバーのAI統合をサポートし、作業効率を向上させます。
MCP開発フレームワークは、大規模言語モデルとの対話用の強力なツールセットで、ファイル処理(PDF/Word/Excel)やウェブコンテンツの取得などの機能を提供し、Cursor IDEの拡張をサポートしています。スマートなファイル識別、効率的な処理、メモリ最適化などの技術的特徴があります。
効率的なドキュメントのクローリングとクリーニングに特化したツールキットで、人間による閲覧とAIによる処理に適しています。
Filesystem MCP Serverは、Model Context Protocol (MCP)に準拠したNode.jsベースのファイルシステムツールサーバーで、AIエージェントに安全かつ効率的なファイルアクセス機能を提供します。プロジェクトのルートディレクトリを制限することで操作の安全性を確保し、バッチ操作をサポートすることで通信オーバーヘッドを削減し、読み書き、編集、検索、権限管理などの様々なファイル管理機能を提供します。
OpenMCPは、Web APIをMCPサーバーに変換する標準およびオープンソースのレジストリで、MCPクライアントが複数のネットワークサービスに効率的にアクセスするための統一された方法を提供します。
GCPの自助型オーディットツールキットで、MCP技術を用いてリソースレポートを自動生成し、クラウド環境の管理効率を向上させます。
Perplexity AIを統合したインテリジェントな研究アシスタントで、検索、ドキュメント検索、API発見、およびコードの近代化チェック機能を提供し、コンテキスト追跡と効率的なAPI管理をサポートします。
ニードルMCPサーバーは、Claudeデスクトップアプリケーションと統合することで、ニードルエコシステムを利用して効率的なドキュメントの整理と検索を実現するドキュメント管理および検索ツールです。
このプロジェクトは、AI支援テンプレートと実用的なスクリプトを含む開発ツールセットを提供し、開発効率とプロジェクト管理の規範性を向上させます。
CICADAは、AIコードアシスタントに構造化されたコードインデックスを提供するMCPサーバーです。ASTレベルのインデックス、呼び出しサイト追跡、およびセマンティック検索を通じて、Elixir、Python、およびErlangのコードライブラリに効率的なコンテキスト圧縮を提供し、トークンの使用を減らし、コードの理解品質を向上させます。
GarenCode DesignはAI駆動のインテリジェントコンポーネント設計プラットフォームで、MCPフレームワークを通じて要件分析からコード生成までの全プロセスを自動化し、複数のAIモデルとプライベートコンポーネントライブラリをサポートし、フロントエンド開発効率を大幅に向上させます。
Code Index MCPは、モデルコンテキストプロトコル(MCP)に基づくコードインデックス分析サーバーで、コード検索、ファイル分析、インテリジェントなフィルタリングなどの機能を提供し、複数のプログラミング言語をサポートし、開発者がコードベースを効率的に管理できるように支援します。
MCPプロトコルに基づくメモリキャッシュサーバーで、言語モデルのインタラクションデータを効率的にキャッシュすることでトークン消費を削減し、自動管理と設定最適化をサポートします。
AI支援洞察エージェントはMCPエージェントで、自然言語の質問を正確で、解釈可能で、再現可能なデータ洞察に変換します。自然言語インターフェイスを通じて業務上の質問をSQLクエリに翻訳し、説明付きの結果(クエリ文、指標定義、データ品質を含む)を提供し、分析の再現性を確保します。業務上の質問とデータの答えの間のギャップを埋め、データ分析の効率と透明性を向上させることを目的としています。
MCP Bridgeは軽量級で、LLMに依存しないRESTfulプロキシで、複数のモデルコンテキストプロトコル(MCP)サーバーに接続し、統一されたREST APIを介してそれらの機能を公開します。これにより、エッジデバイス、モバイルデバイス、WebブラウザーなどのプラットフォームでMCPサーバーを効率的に実行できない問題を解決し、標準実行、確認ワークフロー、Docker隔離などのセキュリティ制御を含む、リスクベースの実行レベルを提供します。
Dart/Flutterの公式パッケージレポジトリpub.dev用に設計されたMCPサーバーで、パッケージの検索、情報取得、バージョン管理、ドキュメントアクセスなどの機能を提供し、AIアシスタントが効率的にパッケージデータを取得できるようにサポートします。
Ref MCPは、ModelContextProtocolサーバーであり、AIプログラミングツールまたはエージェントにAPI、サービス、ライブラリなどのドキュメントへのアクセスを提供します。これは、エージェントがドキュメントを迅速かつトークン効率的に更新するためのワンストップソリューションです。
このプロジェクトはCursor AI統合開発環境のリソースセンターで、開発効率を向上させるルール、プロトコルサービス、ツールのセットが含まれており、AIの動作とプロジェクトの規範をカスタマイズできます。