AIBase
首页
AI资讯
AI产品库
模型广场
MCP服务
AI服务
算力市场
数据集市
AI应用指南
ZH

AI资讯

查看更多

英伟达与MIT合作推出 Fast-dLLM 框架,AI 推理速度提升 27.6 倍

近日,科技巨头英伟达联合麻省理工学院(MIT)与香港大学,发布了名为 Fast-dLLM 的新框架。这一创新的框架旨在显著提高扩散模型(Diffusion-based LLMs)的推理速度,最高可达27.6倍,为人工智能的应用提供了更为强大的技术支持。 扩散模型的挑战与机遇扩散模型被视为传统自回归模型(Autoregressive Models)的有力竞争者。它采用双向注意力机制(Bidirectional Attention Mechanisms),理论上能够通过同步生成多个词元(Multi-token Generation)来加速解码过程。然而,在实际应用中,扩散模型的推理速度常常不及

14.6k 2 天前
英伟达与MIT合作推出 Fast-dLLM 框架,AI 推理速度提升 27.6 倍

AI产品

查看更多
VAR

VAR

Visual Autoregressive Modeling: 新的视觉生成范式

AI图像生成
10.7k
AIBase
智启未来,您的人工智能解决方案智库
English简体中文繁體中文にほんご
友情链接:
AI Newsletters AI ToolsMCP ServersAI NewsAIBaseLLM LeaderboardAI Ranking
© 2025AIBase
商务合作网站地图