Nvidia發佈小型語言模型Nemotron-Nano-9B-v2,擁有9億參數,較原版12億大幅縮減,旨在單臺A10GPU高效運行。該模型採用混合架構,適應實際部署需求,推動小型模型發展。
Nvidia發佈小型語言模型Nemotron-Nano-9B-v2,參數量90億,較前代減少30億,專爲單個A10GPU優化。該模型在基準測試中表現優異,支持靈活控制推理功能,處理速度提升高達6倍,適用於多種應用場景。