約翰霍普金斯大學推出多語種編碼器mmBERT,填補自然語言處理領域空白。該模型在多項任務中超越XLM-R,速度提升2-4倍,支持多語種應用研發。提供基礎和小型兩種配置,基礎版含22層變換器,隱藏層維度1152,參數量約3.07億。
Baidu
-
輸入tokens/百萬
輸出tokens/百萬
4
上下文長度
ivan-kleshnin
這是一個基於jhu-clsp/mmBERT-small模型微調的分類器模型,在評估集上取得了91.07%的準確率,主要用於文本分類任務。
這是一個基於mmBERT-small架構微調的文本分類模型,專門用於消息類型分類任務。在評估集上達到了93.94%的準確率,具有高效的文本分類能力。