AIBase
首頁
AI資訊
AI產品庫
模型廣場
MCP服务
AI服務
算力市場
AI應用指南
數據集市
TW

AI資訊

查看更多

全球首個“純AMD”訓練MoE大模型ZAYA1 發佈:14T tokens+CCA注意力,性能對標Qwen3

AMD聯合IBM與Zyphra推出全球首個全AMD硬件訓練的MoE模型ZAYA1,預訓練14萬億token,性能媲美Qwen3系列,數學推理接近專業版。採用128節點×8張MI300X顯卡集羣,算力達750PFLOPs。創新CCA注意力機制融合卷積與壓縮嵌入,數據採用課程學習從通用到專業領域過渡。後續將發佈優化版本。

7.4k 32 分鐘前
全球首個“純AMD”訓練MoE大模型ZAYA1 發佈:14T tokens+CCA注意力,性能對標Qwen3
AIBase
智啟未來,您的人工智能解決方案智庫
English简体中文繁體中文にほんご
友情链接:
AI Newsletters AI ToolsMCP ServersAI NewsAIBaseLLM LeaderboardAI Ranking
© 2025AIBase
商務合作網站地圖