约翰霍普金斯大学推出多语种编码器mmBERT,填补自然语言处理领域空白。该模型在多项任务中超越XLM-R,速度提升2-4倍,支持多语种应用研发。提供基础和小型两种配置,基础版含22层变换器,隐藏层维度1152,参数量约3.07亿。
Baidu
-
输入tokens/百万
输出tokens/百万
4
上下文长度
ivan-kleshnin
这是一个基于jhu-clsp/mmBERT-small模型微调的分类器模型,在评估集上取得了91.07%的准确率,主要用于文本分类任务。
这是一个基于mmBERT-small架构微调的文本分类模型,专门用于消息类型分类任务。在评估集上达到了93.94%的准确率,具有高效的文本分类能力。