PyTorch 2.8重磅发布:量化LLM推理性能飞跃,Intel GPU 支持来袭!
PyTorch 2.8正式发布,重点提升量化大语言模型在Intel CPU上的推理性能,支持A16W8等多种量化模式,测试显示端到端延迟降低20%以上。新增对Intel GPU分布式后端的实验性支持,扩展硬件兼容性。其他改进包括:SYCL支持增强C++扩展API、XPU设备新增A16W4模式、稳定libtorch ABI接口、增强ROCm支持并新增gfx950架构。新版本还优化了控制流操作,提升模型编译效率。下载地址:https://github.com/pytorch/pytorch/releases/tag/v2.8.0