MiniMax M2模型采用全注意力机制,放弃线性或稀疏注意力技术。开发团队认为,尽管后者能节省计算资源,但全注意力在工业应用中更高效,能提升模型性能。这一决策旨在优化实际部署效果,推动AI技术发展。
MiniMax即将在1至2周内发布新一代M2.1模型,作为M2的关键升级版,旨在加速其“智能普惠”战略。此前M2以仅为Claude Sonnet 8%的低价和翻倍推理速度赢得开发者好评,展现公司在开源大模型领域的强劲竞争力。
MiniMax发布新一代开源推理模型M2,专攻智能Agent应用。采用混合专家架构,总参数量2300亿,每次推理仅激活100亿参数,实现每秒100个token的高输出速度,在实时交互场景中优势显著。
2025年10月27日,MiniMax开源大语言模型MiniMax M2。该模型专为代理工作流和端到端编码设计,采用MoE架构,效率与性能突出:成本仅为Claude Sonnet的8%,速度提升约两倍,为开发者与企业提供高性价比AI解决方案。
用于多模态上下文中的检索增强生成的基准测试代码库。
多模态音乐理解和生成系统
ModelCloud
这是一个基于MiniMax M2基础模型的4bit W4A16量化版本,由ModelCloud的@Qubitum使用GPT-QModel工具进行量化。该模型专门针对文本生成任务进行了优化,在保持较好性能的同时显著减少了模型大小和推理资源需求。
SweUmaVarsh
该模型是一个基于Transformers库的模型,具体用途和功能需要进一步信息确认。
utrobinmv
基于m2m转换器架构的多语言翻译模型,支持俄语、中文和英语之间的双向翻译
entai2965
M2M100是一个多语言编码器-解码器模型,支持100种语言之间的直接翻译,参数规模12亿。
Swamitucats
基于M2M100微调而成的梵语到英语翻译模型,训练数据来自Itihasa数据集,包含梵语史诗的翻译内容。
hazyresearch
M2-BERT-8K是一个8000万参数的长上下文检索模型,基于论文《Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT》提出的架构。
80M参数的M2-BERT-2k模型检查点,专为长上下文检索任务设计,支持2048个token的上下文长度。
ai-forever
基于M2M100-1.2B模型训练的俄语拼写检查器,用于纠正拼写错误和打字错误
M2-BERT-128是论文《Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT》中提出的8000万参数检索模型检查点
togethercomputer
这是一个80M参数的M2-BERT预训练检查点,序列长度为2048,并已针对长上下文检索任务进行微调。
这是一个80M参数的M2-BERT预训练模型,支持长达32768的序列长度,专为长上下文检索任务优化
这是一个8000万参数的M2-BERT预训练检查点,序列长度达8192,并针对长上下文检索任务进行了微调。
kazandaev
基于wmt16数据集微调的多语言翻译模型,支持俄语到英语的翻译任务
anzorq
基于facebook/m2m100_1.2B模型在俄语-卡巴尔达语数据集上微调的翻译模型
Hemanth-thunder
基于M2M100架构的英语与泰米尔语双向翻译模型,采用OpenRAIL许可证发布
CadenzaBaron
基于Facebook/M2M100微调的中英游戏翻译模型,专为修真/武术类游戏内容优化
基于M2M100-1.2B训练的俄语拼写检查模型,能纠正拼写错误和打字错误
alirezamsh
SMaLL-100是一个紧凑且快速的大规模多语言机器翻译模型,覆盖超过10,000种语言对,性能与M2M-100相当但体积更小速度更快。
danhsf
该模型是基于facebook/m2m100_418M在kde4数据集上微调的英语到巴西葡萄牙语翻译模型
facebook
M2M100是一个支持100种语言的多语言机器翻译模型,可直接在9900个翻译方向之间进行翻译。
MCP服务器SSH客户端是一个通过SSH连接远程MCP服务器的工具,支持密钥认证和安全通道通信,可集成到AI平台使用远程MCP工具。
MCP SSH服务器是一个安全的远程访问工具,允许客户端通过SSH协议连接并交互多个MCP工具服务。它支持密钥认证、提供密钥管理API,并能聚合多个MCP服务器为统一接口。