MiniMax M2模型采用全注意力机制,放弃线性或稀疏注意力技术。开发团队认为,尽管后者能节省计算资源,但全注意力在工业应用中更高效,能提升模型性能。这一决策旨在优化实际部署效果,推动AI技术发展。
昆仑万维SkyReels平台推出V3模型,整合Sora2、Veo3.1等顶尖AI视频技术,提供一站式视频创作工具,助力开发者洞悉趋势和创新应用。
MiniMax推出新一代音乐生成模型Music2.0,凭借显著提升的音乐理解与表达能力,被形容为“会唱歌的制作人”。该模型能精准捕捉人声情绪和器乐动态,在声音表现力上实现关键突破,预示着音乐创作体验的重大变革。
MiniMax即将在1至2周内发布新一代M2.1模型,作为M2的关键升级版,旨在加速其“智能普惠”战略。此前M2以仅为Claude Sonnet 8%的低价和翻倍推理速度赢得开发者好评,展现公司在开源大模型领域的强劲竞争力。
MiniMax Agent是一款智能AI伴侣,利用先进的多模态技术提供支持。
MiniMax-Text-01是一个强大的语言模型,具有4560亿总参数,能够处理长达400万token的上下文。
强大的语言模型,拥有4560亿总参数,可处理长达400万token的上下文。
引领AI视频、音乐、文本创作新潮流
minimax
-
输入tokens/百万
输出tokens/百万
1M
上下文长度
$1
$8
4M
DevQuasar
本项目提供了cerebras/MiniMax-M2-REAP-172B-A10B模型的量化版本,致力于让知识为大众所用。这是一个1720亿参数的大型语言模型,经过优化和量化处理,旨在降低部署成本和提高推理效率。
noctrex
这是MiniMax-M2-REAP-172B-A10B模型的MXFP4_MOE量化版本,是一个内存高效的压缩模型。通过REAP(路由加权专家激活剪枝)方法,在保持性能的同时将模型从230B参数压缩到172B参数,体积缩小25%,适用于资源受限的环境、本地部署和学术研究。
cerebras
MiniMax-M2-REAP-162B-A10B是MiniMax-M2的高效压缩版本,采用REAP(路由加权专家激活剪枝)方法,在保持性能几乎不变的情况下将模型大小减少30%,从230B参数压缩到162B参数,显著降低了内存需求。
MiniMax-M2-REAP-172B-A10B是MiniMax-M2的内存高效压缩变体,采用REAP专家剪枝方法,在保持性能几乎不变的情况下,模型大小减轻了25%,从230B参数压缩至172B参数。
这是MiniMax-M2-THRIFT模型的MXFP4_MOE量化版本,在原模型基础上进行了压缩处理,包括25%的专家剪枝(从256到192)并设置top_k=8,同时保留了编码模型的特性,可用于文本生成任务。
catalystsec
本项目对MiniMax-M2模型进行4位量化处理,使用DWQ(动态权重量化)方法,借助mlx-lm库达成。该模型是MiniMax-M2的轻量化版本,在保持较好性能的同时大幅减小模型体积。
unsloth
MiniMax-M2是一款专为最大化编码和智能体工作流程而构建的小型混合专家模型,总参数达2300亿,激活参数为100亿。该模型在编码和智能体任务中表现卓越,同时保持强大的通用智能,具有紧凑、快速且经济高效的特点。
anikifoss
本项目是对MiniMax-M2模型进行的高质量HQ4_K量化,专门针对文本生成任务优化,特别适用于对话场景。该量化版本未使用imatrix,保持了模型的性能表现。
本项目是使用 mlx-lm 库通过动态权重量化(DWQ)将 MiniMax-M2 模型量化为 3 位的成果。它能够在资源受限的条件下,高效地进行文本生成任务,为相关应用提供了更轻量级的解决方案。
bartowski
本项目对MiniMaxAI的MiniMax-M2模型进行了量化处理,使用llama.cpp工具,为不同需求的用户提供了多种量化类型的模型文件,方便在不同硬件条件下高效运行模型。
本项目是基于MiniMaxAI/MiniMax-M2模型的量化版本,致力于让知识为大众所用。提供了多个不同量化级别的模型版本,并展示了各版本的困惑度性能指标。
redponike
MiniMax-M2是一款专为高效编码和智能体工作流打造的混合专家模型,具备2300亿总参数和100亿激活参数。该模型在编码和智能体任务中表现卓越,同时具有低延迟、低成本和高吞吐量的特点,能有效提升工作效率。
这是MiniMax-M2模型的MXFP4_MOE量化版本,基于unsloth修复聊天模板的版本重新量化,能在特定场景下更高效地使用MiniMax-M2模型的能力。这是一个编码模型,需要配合最新的llama.cpp使用。
bullerwins
MiniMax-M2是一款专为最大化编码和智能体工作流程而构建的小型混合专家(MoE)模型。它拥有2300亿总参数,仅激活100亿参数,在编码和智能体任务中表现卓越,同时保持强大的通用智能,具有紧凑、快速且经济高效的特点。
mlx-community
这是MiniMax-M2模型的MLX格式转换版本,使用mlx-lm 0.28.1从原始模型转换而来,支持8位量化和分组大小为32的优化配置,专为Apple Silicon设备优化运行。
inferencerlabs
MiniMax-M2 6.5bit MLX是基于MiniMax-M2模型的量化版本,在文本生成任务中表现出色,支持多种量化级别,其中q6.5bit量化在测试中能达到1.128的困惑度,与q8相当。
MiniMax-M2-5bit 是基于 MiniMaxAI/MiniMax-M2 模型转换而来的 5 位量化版本,专为 MLX 框架优化。该模型是一个大型语言模型,支持文本生成任务,采用 MIT 许可证发布。
cturan
MiniMax-M2 是一个基于 llama.cpp 实验性分支构建的大语言模型,具有混合专家架构,支持高效的文本生成和推理任务。该模型需要特定的实验性分支才能正常运行。
这是MiniMax-M2模型的MLX格式8位量化版本,使用mlx-lm 0.28.4从原始模型转换而来,专为Apple Silicon设备优化运行。
ModelCloud
这是一个基于MiniMax M2基础模型的4bit W4A16量化版本,由ModelCloud的@Qubitum使用GPT-QModel工具进行量化。该模型专门针对文本生成任务进行了优化,在保持较好性能的同时显著减少了模型大小和推理资源需求。
MiniMax Model Context Protocol (MCP) 是一个官方服务器,支持与强大的文本转语音、视频/图像生成API交互,适用于多种客户端工具如Claude Desktop、Cursor等。
MiniMax官方模型上下文协议(MCP)服务器,支持文本转语音、视频/图像生成等API交互。
MiniMax-MCP是一个多功能服务器项目,提供文本转语音、视频生成和图像生成等API服务,支持开发者集成高级多媒体功能。
MiniMax MCP JS是一个基于JavaScript/TypeScript实现的MiniMax MCP协议工具集,提供图像生成、视频生成、文本转语音等功能,支持与MCP兼容客户端交互。
Minimax MCP Tools是一个集成Minimax AI能力的MCP服务器实现,提供图像生成和文本转语音功能。
MiniMax MCP JS是一个JavaScript/TypeScript实现的MiniMax模型上下文协议工具包,提供文本转语音、图像生成、视频生成和语音克隆等功能,支持多种配置方式和传输模式。
Minimax MCP Tools是一个集成Minimax API的MCP服务器实现,提供AI图像生成和文本转语音功能,支持与Windsurf编辑器无缝集成。
go-mcp-harbor是一个基于go-mcp SDK开发的MCP服务与客户端示例库,包含高德MCP客户端和MiniMax海螺的MCP服务端及客户端实现,支持文本转音频、文本转图像、语音克隆等功能,仅供个人开发参考。
Gurddy MCP服务器是一个基于gurddy优化库的综合约束求解和优化平台,支持约束满足问题、线性规划、Minimax博弈论和SciPy高级优化,提供16种求解工具并通过Stdio和HTTP两种MCP传输协议为IDE和Web客户端提供服务
一个基于MiniMax Music API的MCP服务器实现,用于AI驱动的音乐生成,支持与Claude Desktop无缝集成。
MiniMax官方提供的MCP服务,支持文本转语音、语音克隆、视频生成和图像生成等多种功能,可通过API与Claude、Cursor等客户端集成使用。
基于Minimax AI和Amazon S3的语音生成MCP服务器,提供文本转语音功能并自动上传音频文件到云端存储