AIBase
首頁
AI資訊
AI產品庫
模型廣場
MCP服务
AI服務
算力市場
AI應用指南
TW

模型

查看更多

M2 BERT 8k Retrieval Encoder V1

hazyresearch

M

M2-BERT-8K是一個8000萬參數的長上下文檢索模型,基於論文《Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT》提出的架構。

自然語言處理TransformersTransformers英語
hazyresearch
52
4

M2 BERT 128 Retrieval Encoder V1

hazyresearch

M

M2-BERT-128是論文《Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT》中提出的8000萬參數檢索模型檢查點

自然語言處理TransformersTransformers英語
hazyresearch
19
3
AIBase
智啟未來,您的人工智能解決方案智庫
English简体中文繁體中文にほんご
友情链接:
AI Newsletters AI ToolsMCP ServersAI NewsAIBaseLLM LeaderboardAI Ranking
© 2025AIBase
商務合作網站地圖