AIデータサプライヤーのMicro1は年収が1億ドルを突破し、評価額は5億ドルに達しました。成長率が最も速いAIサプライチェーン会社となりました。同社は採用ツールから「AIエキスパートクラウド」プラットフォームに転換し、複数の分野にわたる数千人の専門家を管理しています。創業者はわずか24歳です。
小米はAI大規模モデルを今後10年のコア戦略に位置付け、過去4四半期の投資増加率は50%超と予想を上回る進展。世界的人材募集を開始し、最高年収1000万元で人材不足を補完。元DeepSeek幹部の加入でMiMoチームが発足。....
サウジアラビアのMisraj AIがAWSカンファレンスでアラビア語大規模言語モデル「Kawn」を発表。業界でのアラビア語応用を促進し、双方向翻訳モデル「Mutarjim」と15方言対応の「Lahjawi」を特徴とする。チャットボット等での方言間コミュニケーションを容易に実現。....
設立3年のスタートアップMicro1が年間経常収益1億ドルを突破。9月に3500万ドルのAラウンドで評価額5億ドルに。マイクロソフトなどと連携し大規模言語モデル開発を加速。....
Midasは広告主がMeta広告の診断、起動、最適化を行うのを支援し、数ステップの操作で完了できます。
スポーツカーが走り、煙とRGBライトがあるリアルな映画レベルの画面を生成できます。
文学、哲学、科学の分野の偉人たちとチャットして交友できるチャットボット
Miragic Sales PilotはAIを利用して販売分析と予測を行い、チームの業績向上を支援します。
Openai
$2.8
入力トークン/百万
$11.2
出力トークン/百万
1k
コンテキスト長
$7.7
$30.8
200
$1.75
$14
400
Xai
$2.1
$3.5
128
Minimax
$1.6
$16
-
$1
$8
Stepfun
$2
32
Iflytek
8
$21
$84
bartowski
これはマイクロソフトFara-7Bモデルの量子化バージョンで、llama.cppのimatrix技術を使用して最適化されています。このモデルは、高精度のbf16から超低精度のIQ2_Mまで、さまざまな量子化レベルをサポートし、異なるハードウェア構成とパフォーマンス要件を満たします。
これはmiromind-aiによって開発されたMiroThinker-v1.0-8Bモデルの量子化バージョンで、特定のツールとデータセットを使用して量子化処理が行われ、複数の量子化タイプのファイルをユーザーが選択でき、さまざまな環境で実行でき、異なるパフォーマンスと品質の要件を満たすことができます。
これはVibeStudioのMiniMax-M2-THRIFTモデルを量子化したバージョンで、llama.cppツールと特定のデータセットを使用して生成され、複数の量子化タイプのGGUFファイルを提供し、LM Studioまたはllama.cppベースのプロジェクトでの実行をサポートします。
noctrex
これはHuihui - MiroThinker - v1.0 - 8Bモデルに基づく量子化バージョンで、テキスト生成タスクに特化して最適化されており、量子化技術によって推論効率を向上させると同時に、モデルの性能を維持しています。
これはMiroThinker-v1.0-30BモデルをMXFP4_MOE imatrix量子化したバージョンで、mradermacherのimatrixをベースに実装されています。この量子化モデルは元のモデルのテキスト生成能力を維持しながら、量子化技術によって推論効率を向上させ、高効率なテキスト生成が必要な様々なアプリケーションシーンに適しています。
XiaomiMiMo
米モデルのエンボディメントモデル(MiMo-Embodied)は、強力なクロスエンボディメント視覚言語モデルであり、自動運転とエンボディメントAIタスクの両方で卓越した性能を発揮します。これは、この2つの重要な分野を結合した最初のオープンソースの視覚言語モデルであり、動的な物理環境における理解と推論能力を大幅に向上させました。
Mungert
MiroThinker v1.0はオープンソースの研究エージェントで、モデルレベルの対話型拡張により、ツール強化推論と情報検索能力を向上させます。このモデルは複数のベンチマークテストで優れた性能を発揮し、長文脈と深度のある多段階分析をサポートします。
これはREAP方法を用いてMiniMax-M2の専門家を均一に25%裁剪した172Bパラメータの大規模言語モデルで、llama.cppに特化して最適化された量子化処理が施されており、複数の量子化レベルをサポートし、LM Studioやllama.cppベースのプロジェクトで動作します。
これはREAP方法に基づいて、MiniMax-M2の40%の専門家を均等に剪定して得られた139Bパラメータの大規模言語モデルです。GLMアーキテクチャと専門家混合(MoE)技術を採用し、llama.cppを通じて様々な量化処理を行い、テキスト生成タスクに適しています。
DevQuasar
このプロジェクトでは、cerebras/MiniMax-M2-REAP-172B-A10Bモデルの量子化バージョンを提供しており、知識を大衆に利用してもらうことを目指しています。これは1720億パラメータの大規模言語モデルで、最適化と量子化処理が施されており、デプロイコストの削減と推論効率の向上を目的としています。
これはMiniMax-M2-REAP-172B-A10BモデルのMXFP4_MOE量子化バージョンで、メモリ効率の高い圧縮モデルです。REAP(ルーティング重み付き専門家活性化剪定)方法を通じて、性能を維持しながらモデルを230Bパラメータから172Bパラメータに圧縮し、サイズを25%縮小し、リソース制限のある環境、ローカルデプロイ、および学術研究に適しています。
allenai
Olmo 3 7B RL-Zero Mixは、Allen AIが開発した7Bパラメータ規模の言語モデルで、Olmo 3シリーズに属します。このモデルはDolma 3データセットで事前学習され、Dolciデータセットで事後学習され、強化学習によって数学、コーディング、推論能力が最適化されています。
MiroThinker-v1.0-72Bは72Bパラメータの大規模言語モデルの量子化バージョンで、知識を誰もが利用できるようにすることを目指しています。このプロジェクトはオリジナルモデルを最適化し、より効率的な推論性能を提供します。
DakkaWolf
Trouper-12B GGUFは、DarwinAnim8orによってオリジナルモデルを基に開発されたテキスト生成モデルで、ロールプレイングやクリエイティブライティングのシナリオに特化して最適化されています。このモデルはMistral-Nemo-Base-12Bから微調整され、カスタムの「Actors」データセットを使用して訓練されており、生成されるテキストはより自然で、一般的な「AI言語」の特徴を避けています。
cerebras
MiniMax-M2-REAP-162B-A10BはMiniMax-M2の高効率圧縮バージョンで、REAP(ルーティング重み付き専門家活性化枝刈り)手法を採用し、性能をほぼ維持したままモデルサイズを30%削減し、230Bパラメータから162Bパラメータに圧縮し、メモリ要件を大幅に削減しました。
MiniMax-M2-REAP-172B-A10BはMiniMax-M2のメモリ効率の高い圧縮バリアントで、REAP専門家枝刈り方法を採用し、性能をほぼ維持したまま、モデルサイズを25%軽減し、230Bパラメータから172Bパラメータに圧縮しました。
mradermacher
これはManoghn/voicecraft-mistral-7bモデルの静的量子化GGUFバージョンで、Mistral-7Bアーキテクチャに基づいており、コンテンツ生成とテキスト生成タスクに特化しています。このバージョンでは、2.8GBから14.6GBまでのさまざまな量子化レベルが提供されており、ユーザーはハードウェア条件とパフォーマンス要件に応じて適切なバージョンを選択できます。
cyankiwi
MiniMax-M2 AWQ - INT4は、MiniMax-M2モデルを量子化したバージョンで、INT4量子化技術を採用し、パフォーマンスを維持しながらメモリ使用量を大幅に削減し、推論効率を向上させます。このモデルは、コーディングとエージェントタスクで優れた性能を発揮し、卓越した総合性能を持っています。
これはMiniMax-M2-THRIFTモデルのMXFP4_MOE量子化バージョンで、元のモデルに基づいて圧縮処理が行われており、25%のエキスパート枝刈り(256から192)が行われ、top_k=8に設定されています。同時に、エンコーディングモデルの特性が保持されており、テキスト生成タスクに使用できます。
hetbhagatji09
これはMiniLMアーキテクチャに基づく軽量級の文埋め込みモデルで、高品質の文ベクトル表現を生成するために特別に設計されています。モデルはMultipleNegativesRankingLossを使用してトレーニングされ、文の類似度計算と特徴抽出タスクで優れた性能を発揮します。
Microsoft公式のMCPサーバーで、AIアシスタントに最新のMicrosoft技術ドキュメントの検索と取得機能を提供します。
MiniMax Model Context Protocol (MCP) は公式サーバーで、強力なテキスト読み上げ、ビデオ/画像生成APIとのやり取りをサポートし、Claude Desktop、Cursorなどの様々なクライアントツールに適しています。
Microsoft Bing検索APIを統合するためのMCPサーバーで、ウェブページ、ニュース、画像の検索機能をサポートし、AIアシスタントにウェブ検索機能を提供します。
ミニマックス公式のモデルコンテキストプロトコル(MCP)サーバーで、テキスト読み上げ、ビデオ/画像生成などのAPIとのやり取りをサポートします。
Office-Word-MCP-Serverは、Model Context Protocolに基づくサーバーで、AIアシスタントにMicrosoft Word文書の作成、読み取り、操作のための標準インターフェースを提供し、豊富な文書編集機能をサポートします。
Markdown内容をインタラクティブなマインドマップに変換するMCPサーバーで、複数のインストール方法をサポートし、柔軟な返却形式オプションを提供します。
Markdownをインタラクティブなマインドマップに変換するMCPサーバー
MCppサーバーはC++で書かれた高性能のMinecraftサーバーで、高速かつ効率的なゲーム体験を提供しながら、Javaクライアントとの互換性も維持しています。
このプロジェクトは、Model Context Protocol (MCP)に基づくサーバー実装で、Milvusベクトルデータベースとのシームレスな統合を提供し、Claude DesktopやCursorなどのさまざまなLLMアプリケーションが標準化されたプロトコルを通じてデータベース機能にアクセスできるようにします。
MCPプロトコルに基づくWord文書操作サーバーで、AIアシスタントにMicrosoft Word文書の作成、編集、管理機能を提供します。
MCPプロトコルに基づくマインスイーパーゲームサーバーで、クライアントエージェントがMCPプロトコルを通じてマインスイーパーゲームとやり取りできます。
MindBridgeはAIモデルルーターサーバーで、複数のLLMプロバイダーをサポートし、スマートなモデルスケジューリングと協調を実現し、複雑な推論タスクや多モデルワークフローに適しています。
AI開発者向けの低コストウェブ検索サービスツール
NixベースのPython MCPサーバープロジェクトで、位置情報の表示と時間の取得機能を備えています。
MCP MindMeshは、複数のClaude 3.7 Sonnetインスタンスを管理するサーバーで、量子啓発の群知能を通じてマルチエージェントの協調を実現し、高い一貫性のある応答を生成します。
強化版Outlook MCPサーバーは、Microsoft Graph APIを通じてClaudeとOutlookを接続し、メール、カレンダー、フォルダー、およびルール管理機能を提供します。
このプロジェクトは、World Mini Appsのドキュメントを検索し、Cursorと統合するためのMCPサーバーを構築し、開発者がMiniAppをより効率的に開発できるように支援します。
MCPモデルを通じてMicrosoft Accessデータベースを探索およびクエリするためのツール
microCMS MCPサーバーは、AIアシスタントとmicroCMSコンテンツ管理システムのやり取りを行うためのミドルウェアで、完全なCRUD操作とメディア管理機能を提供します。
Microsoft SQL Serverデータベースに接続するためのModel Context Protocol (MCP)サーバーで、SQLクエリの実行とデータベース接続の管理ツールを提供します。