AIBase
首页
AI资讯
AI产品库
模型广场
MCP服务
AI服务
算力市场
AI应用指南
数据集市
ZH

AI资讯

查看更多

挑战主流认知!蚂蚁、人大在2025外滩大会发布行业首个原生MoE扩散语言模型

蚂蚁集团与人民大学联合研发原生MoE架构扩散语言模型LLaDA-MoE,基于20T数据完成训练,验证了工业级大规模训练的扩展性和稳定性。模型效果超越LLaDA1.0/1.5和Dream-7B,媲美自回归模型,推理速度提升数倍。该模型将于近期开源,推动全球AI社区在dLLM领域的技术发展。

7.5k 23 小时前
挑战主流认知!蚂蚁、人大在2025外滩大会发布行业首个原生MoE扩散语言模型

模型

查看更多

LLaDA MoE 7B A1B Base

inclusionAI

L

LLaDA-MoE是基于扩散原理构建的新型混合专家语言模型,是首个开源的MoE扩散大语言模型,在约20万亿个标记上从头预训练,总参数70亿,推理时仅激活14亿参数,在代码生成和数学推理等任务中表现卓越。

自然语言处理TransformersTransformers
inclusionAI
1.2k
20
AIBase
智启未来,您的人工智能解决方案智库
English简体中文繁體中文にほんご
友情链接:
AI Newsletters AI ToolsMCP ServersAI NewsAIBaseLLM LeaderboardAI Ranking
© 2025AIBase
商务合作网站地图