百度ワールドで発表された「超能小度」は、音声・視覚・空間情報を統合したAIアシスタント。聴覚・発話・環境認識を強化し、数千万台の小度デバイスが無料アップグレード可能。人間と機械のインタラクションを革新し、スマートライフを推進。....
バイトダンスの研究員が機密情報を複数回漏洩し解雇。8万人のフォロワーを持つZhihuで内部開発情報を頻繁に公開し、社内調査を招く。過度な情報共有がキャリア危機に繋がった。....
マイクロソフトは高速ネットワークで接続された大陸間データセンタークラスターを構築中。これにより、100兆パラメータ規模のAIモデル学習をサポート。ウィスコンシン州拠点が稼働開始し、アトランタ施設と接続。....
ナノバナナ2 AI画像モデルで重要な突破を遂げ、複雑な細部の再現問題を克服しました。人間の多段階の創作プロセスを模倣することで、画像生成はランダムな出力からコントロール可能な精修へと進化し、文章、時間、光などの細部が誤りやすい問題を完全に解決し、業界を正確な生成の新たな段階へと導いています。
スマートホワイトボード上で画像、動画、テキストを生成、編集、強化し、ワンストップのクリエイティブプラットフォームです。
AI駆動のオンラインレビュー、フィードバック、評判管理ツール。ワンストップで収集と分析が可能です。
オープンソースのAIエージェントプラットフォームで、AIワークフローの設計、デプロイ、監視が可能で、コードを書かずに構築できます。
ニモはインテリジェントキャンバスで、AIワークフローを統一し、複数のアプリケーションを統合して協働させ、作業効率を向上させます。
openai
$144
入力トークン/百万
$576
出力トークン/百万
200k
コンテキスト長
mistral
$0.72
$2.16
256k
redponike
MiniMax - M2は、高効率コーディングとインテリジェントエージェントワークフロー用に特別に開発されたハイブリッドエキスパートモデルで、総パラメータが2300億、活性化パラメータが100億です。このモデルは、コーディングとインテリジェントエージェントタスクで卓越した性能を発揮し、低遅延、低コスト、高スループットの特徴を持ち、作業効率を効果的に向上させます。
bullerwins
MiniMax - M2は、コーディングとエージェントワークフローを最大化するために構築された小型のハイブリッドエキスパート(MoE)モデルです。総パラメータは2300億で、活性化されるパラメータは100億のみで、コーディングとエージェントタスクで卓越した性能を発揮し、同時に強力な汎用知能を保持し、コンパクトで高速かつ経済的です。
mlx-community
MiniMax-M2-5bitは、MiniMaxAI/MiniMax-M2モデルから変換された5ビット量子化バージョンで、MLXフレームワーク用に最適化されています。このモデルは大規模言語モデルで、テキスト生成タスクをサポートし、MITライセンスで公開されています。
Mungert
PokeeResearch-7Bは、Pokee AIによって開発された70億パラメータの深度研究エージェントモデルです。AIフィードバック強化学習(RLAIF)と強力な推論フレームワークを組み合わせ、ツール強化型大規模言語モデルにおいて信頼性が高く、アライメントされ、拡張可能な研究レベルの推論を実現し、複雑な多段階研究ワークフローに適しています。
MiniMaxAI
MiniMax-M2は、コーディングとエージェントのワークフローを最大化するために構築された「ミニ」モデルで、ハイブリッドエキスパートアーキテクチャを採用し、総パラメータは2300億、アクティブなパラメータは100億です。このモデルは、コーディングとエージェントタスクで卓越した性能を発揮し、同時に強力な汎用知能を保持し、コンパクトで高速かつ経済的に効率的な特徴を持っています。
Pacific-Prime
INLアーキテクチャは、積分ニューロンダイナミクスに基づくプロダクションレベルのニューラルアーキテクチャで、従来のフィードフォワードネットワーク層を反復ダイナミクスに置き換え、大規模言語モデル、ビジュアルトランスフォーマー、マルチモーダルモデルなどのさまざまなタイプに適用可能です。
metascroy
これはQwen3-4Bモデルをベースに微調整された量子化バージョンで、UnslothフレームワークとHuggingface TRLライブラリを使用して高効率なトレーニングを行い、トレーニング速度が2倍に向上します。モデルはint8-int4混合量子化方式を採用し、モバイルデバイスでの実行をサポートしています。
PokeeAI
PokeeResearch-7BはPokee AIによって開発された70億パラメータの深度研究用のインテリジェントエージェントで、AIフィードバックに基づく強化学習(RLAIF)と推論フレームワークを組み合わせ、自己修正、検証、総合分析を含む複雑な多段階研究ワークフローを実行できます。
codechrl
bert-micro-cybersecurityは、ネットワークセキュリティのテキスト分類タスク用に設計されたコンパクトなトランスフォーマーモデルで、脅威検出やイベントレポート分析などに使用でき、英語とインドネシア語をサポートします。
これはLiquidAI/LFM2-8B-A1Bモデルを基に変換された8ビット量子化バージョンで、Apple MLXフレームワーク用に最適化されています。このモデルは80億パラメータのハイブリッドエキスパートモデルで、多言語テキスト生成タスクをサポートしています。
ByteDance-Seed
人工海馬ネットワーク(AHN)は、無損記憶を固定サイズの圧縮表現に変換することで、無損記憶の正確性と圧縮記憶の高効率性を結合した革新的な長文脈モデリング手法です。このモデルは、長シーケンスを効果的に処理でき、計算コストが固定されており、様々なRNNに似たアーキテクチャに適用できます。
AHNは、高効率な長文脈モデリングに用いられる革新的なニューラルネットワークアーキテクチャで、損失のないメモリを固定サイズの圧縮表現に変換することで、TransformerとRNNの利点を結合し、長シーケンス処理において高効率な計算と正確な予測を実現します。
expert78
kontext-dusk-3-loraは、FLUX.1-Kontext-devベースモデルを基にトレーニングされたLoRA画像生成モデルで、黄昏のブルー調のスタイルの画像を生成するために特別に設計されています。このモデルは特定のトリガーワードで起動し、主流のAI画像生成ツールを複数サポートしています。
これはIBM Granite-4.0-h-Tinyモデルの4ビット量子化バージョンで、Apple Silicon用に最適化され、MLXフレームワークを使用して効率的な推論を行います。モデルはDWQ(動的重み量子化)で処理され、性能を維持しながらモデルサイズを大幅に縮小しています。
MartinSSSTSGH
これはOstrisによるAIツールキットを基にトレーニングされたLoRAモデルで、テキストから動画への画像生成タスクに特化しており、トリガーワード「Lilly」を使用して特定のスタイルの画像コンテンツを生成します。
yujieouo
G²RPOは、流モデルの嗜好アライメントに特化した新しい強化学習フレームワークで、粒度化報酬評価メカニズムにより生成品質を大幅に向上させます。
inclusionAI
Ming-UniVisionは多モーダル大規模言語モデルで、初めて連続ビジュアル表現を次のトークン予測フレームワークに統合し、単一の自己回帰パラダイムの下でビジュアルと言語を統一し、離散量子化や特定モーダルのヘッドを必要としません。このモデルは連合画像理解と生成をサポートし、ビジュアル言語トレーニングでの収束速度がより速く、多輪コンテキストビジュアルタスクもサポートします。
prithivMLmods
ドラドーネットワークサーフィンツール拡張版は、通義千問3 - 4Bをベースに微調整された関数呼び出しとインテリジェント推論モデルで、ネットワーク検索の編成、ツール強化推論、動的問題解決のために設計されています。 このモデルは、インテリジェント決定、ツール選択、構造化された実行フローにおいて優れた性能を発揮します。
EpistemeAI
このモデルはGPT-OSS-20Bをベースに、Unsloth強化学習フレームワークを用いて微調整されており、推論効率の最適化と、人間のフィードバックからの強化学習(RLHF)型トレーニング中に発生するバグの削減を目的としています。微調整プロセスでは、アライメントの堅牢性と効率に重点が置かれ、モデルが過度の計算コストをかけずに推論の深度を維持できるようにしています。
joekarim
これはHugging Faceモデルセンターに公開されたトランスフォーマーモデルで、具体的な情報は開発者が補足する必要があります。モデルカードはシステムによって自動生成され、モデルの基本的なフレームワークと使用ガイドを提供します。
Einoは、Golang用に設計されたLLMアプリケーション開発フレームワークで、シンプルで拡張可能で信頼性が高く効率的なコンポーネント抽象化と編成機能により、AIアプリケーションの開発プロセスを簡素化することを目的としています。豊富なコンポーネントライブラリ、強力なグラフ編成機能、完全なストリーム処理サポート、および高度に拡張可能なアスペクトメカニズムを提供し、開発からデプロイまでの全サイクルのツールチェーンを網羅しています。
ソロンは、高効率、オープン、エコシステムにやさしいJavaのエンタープライズアプリケーション開発フレームワークで、全シナリオの開発に対応し、高性能、低メモリ消費、高速起動、小さなパッケージサイズなどの特徴があり、Java8からJava24まで、およびGraalVMネイティブランタイムと互換性があります。
Genkitは、AI駆動のアプリケーションを構築するためのオープンソースフレームワークで、Node.jsとGoのライブラリを提供し、複数のAIモデルとベクトルデータベースの統合をサポートし、開発ツールとプラグインエコシステムを含んでいます。
OpenSumiは、AIネイティブのIDE製品を迅速に構築するのに役立つフレームワークで、クラウドとデスクトップの開発環境をサポートし、豊富なサンプルプロジェクトとテンプレートを提供します。
FastMCPは、TypeScriptに基づくフレームワークで、クライアントセッションをサポートするMCPサーバーを構築するために使用されます。ツール、リソース、プロンプトの簡単な定義を提供し、認証、セッション管理、画像と音声コンテンツの返却、ログ記録、エラー処理、SSE通信などの機能をサポートし、テストとデバッグ用のCLIツールも含まれています。
Nx Consoleは、NxとLernaモノレポプロジェクト用の可视化インターフェースツールです。エディタのAI機能を強化し、プロジェクトとワークフロー管理を提供します。
ExcelをインストールすることなくExcelファイルを操作できるMCPサービスで、ワークブックの作成、データの読み書き、書式設定、グラフ生成などの機能をサポートします。
NotteはオープンソースのフルスタックネットワークAIエージェントフレームワークで、ブラウザセッション、自動化されたLLM駆動エージェント、ウェブページの監視と操作、資格情報管理などの機能を提供し、インターネットをエージェントに優しい環境に変え、自然言語でウェブサイトの構造を記述することでLLMの認知負荷を軽減することを目的としています。
RedNote MCPは、小红书のコンテンツへのアクセスを提供するツールで、認証管理、キーワードによるノート検索、コマンドラインによる初期化などの機能をサポートし、URLを通じてノートコンテンツにアクセスできます。
RedNote MCPは、小红书のコンテンツへのアクセスを提供するMCPサービスツールで、コマンドラインを通じてログインの初期化、キーワードによるノート検索、URLによるノート内容のアクセスなどの機能をサポートしています。
Framelink Figma MCPサーバーは、AIプログラミングツール(Cursorなど)にFigmaのデザインデータへのアクセスを提供するサーバーで、Figma APIのレスポンスを簡素化することで、AIがデザインからコードへのワンクリック変換をより正確に行えるように支援します。
これはDockerコンテナに基づくAI開発ツールプロジェクトで、Markdownファイルを使用して複雑なワークフローを記述し、Docker化されたツールとユーザーが選択したLLMモデルを組み合わせて、多モデルエージェントとプロジェクト優先設計のワークフローを実現します。
多チェーン相互作用をサポートするEVM互換ブロックチェーンサービスMCPサーバーで、統一されたブロックチェーン操作インターフェースを提供し、30以上のネットワークとENS解決をサポートします。
MCPEngineは本番レベルのModel Context Protocol (MCP)の実装で、大規模言語モデル(LLM)に標準化されたインターフェイスを提供し、OAuth認証、リソース管理、ツール呼び出しなどの機能をサポートし、「LLM界のREST」フレームワークを目指しています。
Google Workspace MCPサーバーは、機能が充実したマルチクライアントプロトコルサーバーで、自然言語でGoogleカレンダー、クラウドストレージ、Gmail、ドキュメントなどのオフィスソフトウェア一式を制御でき、Claudeデスクトップ版にワンクリックでインストールでき、高度なOAuth認証とサービスキャッシュを提供します。
Foundry MCP Serverは軽量で高速なMCPプロトコルサーバーで、LLMアシスタントにFoundryツールチェーンに基づくSolidity開発機能を提供します。ネットワークインタラクション、コントラクト操作、Solidity開発などの機能が含まれます。
automcpは、既存のAIエージェントフレームワーク(CrewAI、LangGraphなど)を簡単にMCPサーバーに変換し、標準化されたインターフェースでアクセスできるツールです。複数のフレームワークの適合とデプロイをサポートし、迅速な起動と設定機能を提供します。
MCPプロトコルに基づくインテリジェントなタスク管理システムで、AIエージェントによる効率的なプログラミングワークフローフレームワークを提供し、タスクの計画、分解、実行、記憶機能を備えています。
RagRabbitは自ホスト型のAIサイト検索およびLLM.txt生成ツールで、Vercel上にワンクリックでデプロイできます。
Open Data MCPはオープンソースプロジェクトで、MCPプロトコルを通じて公開データセットをLLMアプリケーションに迅速に接続することを目的としています。プロジェクトはCLIツールを提供し、2分での接続を実現し(現在はClaudeをサポート)、コミュニティ協力のフレームワークを構築して、開発者が簡単に公開データセットを貢献して公開できるようにします。核心的な目標は、すべてのLLMアプリケーションと数百万の公開データセットを接続するインフラストラクチャを構築することです。