AIBase
首页
AI资讯
AI产品库
模型广场
MCP服务
AI服务
算力市场
AI应用指南
数据集市
ZH

模型

查看更多

Switch Base 32

google

S

Switch Transformers是基于专家混合(Mixture of Experts, MoE)架构的掩码语言模型,在T5架构基础上改进,用稀疏MLP层替代前馈层,包含32个专家网络。该模型在训练效率和微调任务表现上优于T5,支持自然语言处理相关应用。

自然语言处理TransformersTransformers英语
google
153
10

Fairseq Dense 6.7B

KoboldAI

F

这是Artetxe等人论文《Efficient Large Scale Language Modeling with Mixtures of Experts》中原生密集67亿参数模型的Hugging Face transformers适配版本。

自然语言处理TransformersTransformers英语
KoboldAI
123
3
AIBase
智启未来,您的人工智能解决方案智库
English简体中文繁體中文にほんご
友情链接:
AI Newsletters AI ToolsMCP ServersAI NewsAIBaseLLM LeaderboardAI Ranking
© 2025AIBase
商务合作网站地图