AIBase
首頁
AI資訊
AI產品庫
模型廣場
MCP服务
AI服務
算力市場
AI應用指南
數據集市
TW

模型

查看更多

Switch Base 32

google

S

Switch Transformers是基於專家混合(Mixture of Experts, MoE)架構的掩碼語言模型,在T5架構基礎上改進,用稀疏MLP層替代前饋層,包含32個專家網絡。該模型在訓練效率和微調任務表現上優於T5,支持自然語言處理相關應用。

自然語言處理TransformersTransformers英語
google
153
10

Fairseq Dense 6.7B

KoboldAI

F

這是Artetxe等人論文《Efficient Large Scale Language Modeling with Mixtures of Experts》中原生密集67億參數模型的Hugging Face transformers適配版本。

自然語言處理TransformersTransformers英語
KoboldAI
123
3
AIBase
智啟未來,您的人工智能解決方案智庫
English简体中文繁體中文にほんご
友情链接:
AI Newsletters AI ToolsMCP ServersAI NewsAIBaseLLM LeaderboardAI Ranking
© 2025AIBase
商務合作網站地圖