AIBase
首頁
AI資訊
AI產品庫
GEO平台
MCP服务
模型算力廣場
TW

AI資訊

查看更多

全新多語種編碼器 mmBERT:超越 XLM-R,提升速度與效率

約翰霍普金斯大學推出多語種編碼器mmBERT,填補自然語言處理領域空白。該模型在多項任務中超越XLM-R,速度提升2-4倍,支持多語種應用研發。提供基礎和小型兩種配置,基礎版含22層變換器,隱藏層維度1152,參數量約3.07億。

11.5k 前天
全新多語種編碼器 mmBERT:超越 XLM-R,提升速度與效率

模型

查看更多

ERNIE-1.0

Baidu

ERNIE-1.0

-

輸入tokens/百萬

-

輸出tokens/百萬

4

上下文長度

Leadscanr JobClassifier Domain

ivan-kleshnin

L

這是一個基於jhu-clsp/mmBERT-small模型微調的分類器模型,在評估集上取得了91.07%的準確率,主要用於文本分類任務。

自然語言處理PeftPeft
ivan-kleshnin
144
1

Leadscanr MessageClassifier Type

ivan-kleshnin

L

這是一個基於mmBERT-small架構微調的文本分類模型,專門用於消息類型分類任務。在評估集上達到了93.94%的準確率,具有高效的文本分類能力。

自然語言處理PeftPeft
ivan-kleshnin
992
1
AIBase
智啟未來,您的人工智能解決方案智庫
English简体中文繁體中文にほんご
友情链接:
AI Newsletters AI ToolsMCP ServersAI NewsAIBaseLLM LeaderboardAI Ranking
© 2026AIBase
商務合作網站地圖