AIBase
首页
AI资讯
AI产品库
GEO平台
MCP服务
模型算力广场
ZH

AI资讯

查看更多

全新多语种编码器 mmBERT:超越 XLM-R,提升速度与效率

约翰霍普金斯大学推出多语种编码器mmBERT,填补自然语言处理领域空白。该模型在多项任务中超越XLM-R,速度提升2-4倍,支持多语种应用研发。提供基础和小型两种配置,基础版含22层变换器,隐藏层维度1152,参数量约3.07亿。

11.5k 前天
全新多语种编码器 mmBERT:超越 XLM-R,提升速度与效率

模型

查看更多

ERNIE-1.0

Baidu

ERNIE-1.0

-

输入tokens/百万

-

输出tokens/百万

4

上下文长度

Leadscanr JobClassifier Domain

ivan-kleshnin

L

这是一个基于jhu-clsp/mmBERT-small模型微调的分类器模型,在评估集上取得了91.07%的准确率,主要用于文本分类任务。

自然语言处理PeftPeft
ivan-kleshnin
144
1

Leadscanr MessageClassifier Type

ivan-kleshnin

L

这是一个基于mmBERT-small架构微调的文本分类模型,专门用于消息类型分类任务。在评估集上达到了93.94%的准确率,具有高效的文本分类能力。

自然语言处理PeftPeft
ivan-kleshnin
992
1
AIBase
智启未来,您的人工智能解决方案智库
English简体中文繁體中文にほんご
友情链接:
AI Newsletters AI ToolsMCP ServersAI NewsAIBaseLLM LeaderboardAI Ranking
© 2026AIBase
商务合作网站地图