英偉達與MIT合作推出 Fast-dLLM 框架,AI 推理速度提升 27.6 倍
近日,科技巨頭英偉達聯合麻省理工學院(MIT)與香港大學,發佈了名爲 Fast-dLLM 的新框架。這一創新的框架旨在顯著提高擴散模型(Diffusion-based LLMs)的推理速度,最高可達27.6倍,爲人工智能的應用提供了更爲強大的技術支持。 擴散模型的挑戰與機遇擴散模型被視爲傳統自迴歸模型(Autoregressive Models)的有力競爭者。它採用雙向注意力機制(Bidirectional Attention Mechanisms),理論上能夠通過同步生成多個詞元(Multi-token Generation)來加速解碼過程。然而,在實際應用中,擴散模型的推理速度常常不及