英偉達發佈開放式多模態模型Nemotron 3 Nano Omni,整合視頻、音頻、圖像和文本推理能力,採用30B-A3B混合專家架構,集成視覺與音頻編碼器,無需額外感知模型,顯著提升大規模推理效率,在複雜文本處理等領域表現出色。
英偉達發佈開放式多模態大模型Nemotron3Nano Omni,整合視頻、音頻、圖像和文本的深度推理能力,採用30B-A3B混合專家架構,內置視覺與音頻編碼器,旨在爲開發者提供更快速、更智能的交互響應方案。
智譜AI開源模型GLM-4.7-Flash發佈兩週,在Hugging Face下載量突破100萬。這款30B-A3B混合思考模型性能強勁,在SWE-bench Verified和τ²-Bench等測試中,綜合表現超越gpt-oss-20b及Qwen3-30B-A3B-Thinking-2507,在同尺寸模型中領先。
智譜AI開源最新“混合思考”模型GLM-4.4-Flash,採用30B-A3B MoE架構,總參數量300億,實際激活約30億參數。該模型在保持輕量化部署優勢的同時,憑藉卓越推理與編碼能力,登頂同類規格模型性能榜首,成爲30B級別中的“全能王者”。
noctrex
這是阿里巴巴通義深度研究30B-A3B模型的量化版本,採用MXFP4_MOE量化技術並額外添加imatrix量化,旨在優化模型性能和資源使用效率,適用於文本生成任務。
Mungert
基於Qwen 30B-A3B(MOE)微調的高效推理模型,通過減少專家數量實現接近雙倍速度提升,支持多種量化格式和40K上下文長度