AIBase
首页
AI资讯
AI产品库
模型广场
MCP服务
AI服务
算力市场
AI应用指南
ZH

模型

查看更多

M2 BERT 8k Retrieval Encoder V1

hazyresearch

M

M2-BERT-8K是一个8000万参数的长上下文检索模型,基于论文《Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT》提出的架构。

自然语言处理TransformersTransformers英语
hazyresearch
52
4

M2 BERT 128 Retrieval Encoder V1

hazyresearch

M

M2-BERT-128是论文《Benchmarking and Building Long-Context Retrieval Models with LoCo and M2-BERT》中提出的8000万参数检索模型检查点

自然语言处理TransformersTransformers英语
hazyresearch
19
3
AIBase
智启未来,您的人工智能解决方案智库
English简体中文繁體中文にほんご
友情链接:
AI Newsletters AI ToolsMCP ServersAI NewsAIBaseLLM LeaderboardAI Ranking
© 2025AIBase
商务合作网站地图