MiniMax M2モデルでは、グローバルアテンションメカニズムが採用され、線形またはスパースアテンション技術は使用されていない。開発チームは、これら後者の方が計算リソースを節約できるものの、グローバルアテンションが実際の応用においてより効率的で、モデルの性能を向上させると考えている。この決定は、実際に導入した場合の効果を最適化し、AI技術の発展を推進することを目的としている。
MiniMaxは1〜2週間以内に新しいM2.1モデルを発表する予定です。このモデルはM2の重要なアップグレード版であり、スマートパーソナル化戦略を加速するものです。以前のM2は Claude Sonnet の8%以下の低価格と2倍の推論速度で開発者から高い評価を受け、同社がオープンソース大規模モデル分野における強力な競争力を示しています。
MiniMaxが新世代オープンソース推論モデルM2を発表。スマートエージェント向けに設計され、混合専門家アーキテクチャを採用。総パラメータ2300億、推論時は100億パラメータのみ活性化し、毎秒100トークンの高速処理を実現。リアルタイム対話に強み。....
2025年10月27日、MiniMaxが大規模言語モデル「MiniMax M2」をオープンソース化。MoEアーキテクチャ採用で、エージェントワークフローとエンドツーエンドコーディングに特化。Claude Sonnet比でコスト8%、速度約2倍の高効率・高性能を実現。....
マルチモーダルコンテキストにおける検索強化生成のためのベンチマークテストコードリポジトリです。
多様なモダリティに対応した音楽理解?生成システム
catalystsec
このプロジェクトでは、MiniMax - M2モデルを4ビット量子化処理し、DWQ(動的重み量子化)方法を使用し、mlx - lmライブラリを介して達成します。このモデルはMiniMax - M2の軽量化バージョンで、良好な性能を維持しながらモデルサイズを大幅に削減します。
bartowski
本プロジェクトでは、MiniMaxAIのMiniMax - M2モデルを量化処理し、llama.cppツールを使用して、様々なニーズを持つユーザーに複数の量化タイプのモデルファイルを提供し、異なるハードウェア条件下でのモデルの効率的な実行を容易にします。
redponike
MiniMax - M2は、高効率コーディングとインテリジェントエージェントワークフロー用に特別に開発されたハイブリッドエキスパートモデルで、総パラメータが2300億、活性化パラメータが100億です。このモデルは、コーディングとインテリジェントエージェントタスクで卓越した性能を発揮し、低遅延、低コスト、高スループットの特徴を持ち、作業効率を効果的に向上させます。
bullerwins
MiniMax - M2は、コーディングとエージェントワークフローを最大化するために構築された小型のハイブリッドエキスパート(MoE)モデルです。総パラメータは2300億で、活性化されるパラメータは100億のみで、コーディングとエージェントタスクで卓越した性能を発揮し、同時に強力な汎用知能を保持し、コンパクトで高速かつ経済的です。
inferencerlabs
MiniMax - M2 6.5ビットMLXは、MiniMax - M2モデルに基づく量子化バージョンで、テキスト生成タスクで優れた性能を発揮し、複数の量子化レベルをサポートします。そのうち、q6.5ビット量子化はテストで1.128の困惑度を達成し、q8と同等です。
ModelCloud
これはMiniMax M2ベースモデルに基づく4bit W4A16量子化バージョンで、ModelCloudの@QubitumがGPT - QModelツールを使用して量子化しました。このモデルはテキスト生成タスクに特化して最適化されており、良好な性能を維持しながら、モデルサイズと推論リソースの要件を大幅に削減します。
SweUmaVarsh
このモデルはTransformersライブラリに基づくモデルで、具体的な用途と機能はさらなる情報確認が必要です。
utrobinmv
m2mトランスフォーマーアーキテクチャに基づく多言語翻訳モデルで、ロシア語、中国語、英語間の双方向翻訳をサポート
entai2965
M2M100は100言語間の直接翻訳をサポートする多言語エンコーダー・デコーダーモデルで、パラメータ規模は12億です。
Swamitucats
M2M100をファインチューニングしたサンスクリット語から英語への翻訳モデルで、Itihasaデータセットからのサンスクリット語叙事詩の翻訳内容を含んでいます。
hazyresearch
M2-BERT-8Kは8000万パラメータの長文検索モデルで、論文『Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT』で提案されたアーキテクチャに基づいています。
8000万パラメータのM2-BERT-2kモデルチェックポイントで、長文検索タスク向けに設計されており、2048トークンのコンテキスト長をサポートします。
ai-forever
M2M100-1.2Bモデルを基に訓練されたロシア語スペルチェッカーで、スペルミスやタイプミスを修正します
M2-BERT-128は論文『Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT』で提案された8000万パラメータの検索モデルチェックポイント
togethercomputer
これは8000万パラメータのM2-BERT事前学習チェックポイントで、シーケンス長2048をサポートし、長文コンテキスト検索タスク向けにファインチューニングされています。
これは80MパラメータのM2-BERT事前学習モデルで、最大32768のシーケンス長をサポートし、長文コンテキスト検索タスクに最適化されています
これは8000万パラメータのM2-BERT事前学習チェックポイントで、シーケンス長は8192に達し、長文脈検索タスク向けにファインチューニングされています。
kazandaev
wmt16データセットでファインチューニングされた多言語翻訳モデルで、ロシア語から英語への翻訳タスクをサポート
anzorq
facebook/m2m100_1.2Bモデルをロシア語-カバルド語データセットでファインチューニングした翻訳モデル
Hemanth-thunder
M2M100アーキテクチャに基づく英語とタミル語の双方向翻訳モデルで、OpenRAILライセンスで公開されています
MCPサーバーSSHクライアントは、SSHを介してリモートMCPサーバーに接続するツールで、キー認証と安全なチャネル通信をサポートし、AIプラットフォームに統合してリモートMCPツールを使用できます。
MCP SSHサーバーは、クライアントがSSHプロトコルを介して複数のMCPツールサービスに接続し、やり取りできる安全なリモートアクセスツールです。キー認証をサポートし、キー管理APIを提供し、複数のMCPサーバーを統一インターフェイスに集約することができます。