騰訊微信AI團隊推出新型擴散語言模型WeDLM,旨在提升文本生成效率。該模型結合擴散模型與因果注意力機制,通過拓撲重排技術兼容KV緩存,解決了傳統擴散模型因雙向注意力導致的推理效率問題,突破了GPT等大模型在並行推理上的限制。