Generalist公司发布GEN-0基础模型,揭示机器人缩放定律,推动技术从任务定制迈向通用智能。该模型基于27万小时真实世界数据训练,实现跨硬件平台“边想边做”能力,被喻为机器人领域的“ChatGPT时刻”,强调真实数据优于模拟环境。
小鹏汽车在2025科技日发布第二代VLA模型,实现从视觉信号到动作指令的端到端输出,突破传统架构,无需语言转译。该模型成为首个量产物理世界大模型,为智能驾驶、机器人和飞行汽车等领域提供智能基础,能力突出。
银河通用团队联合多所高校发布全球首个跨本体全域环视导航基础大模型NavFoM,实现无需预先建图和环境适配的零样本全域导航能力,突破传统机器人“换个地方就迷路”的技术瓶颈。该模型具备全场景泛化能力,适用于嘈杂商场、复杂结构等环境。
Infosys推出AI平台Topaz Fabric,集成AI代理、服务和模型,构建可组合堆栈。该平台通过分层开放架构,提供统一的数据与AI基础设施,支持模块化SaaS服务,帮助企业加速AI价值实现并优化IT服务交付。
Relace为AI代码生成提供模型和基础设施,助力自主代码生成。
首款文本引导视频编辑基础模型,用文本指令轻松变换视频内容。
Qwen Image AI是阿里巴巴Qwen团队推出的开源图像生成和编辑基础模型,用于准确的图像文本渲染和高级编辑。
AgentSphere是一个AI本地云基础设施,用于安全的LLM代码执行。
chatglm
$0.43
Input tokens/M
$1.01
Output tokens/M
131.1k
Context Length
google
$2.16
$18
1M
xai
$21.6
$108
mistral
-
128k
anthropic
200k
baidu
$4
$16
perplexity
127k
$2
$8
32k
ai2
$6.48
$0.72
256k
reka-ai
ai21-labs
$3.53
$7.99
260k
$14.4
$57.6
noctrex
这是MiniMax-M2-THRIFT模型的MXFP4_MOE量化版本,在原模型基础上进行了压缩处理,包括25%的专家剪枝(从256到192)并设置top_k=8,同时保留了编码模型的特性,可用于文本生成任务。
kirankumarpetlu
这是一个基于Google Gemma-2B-IT基础模型,使用PEFT(参数高效微调)和LoRA技术进行优化的文本生成模型。该模型通过参数高效的方法在保持基础模型能力的同时,针对特定任务进行了优化。
dinhthuan
NeuTTS-Air越南语文本转语音模型是基于260多万条越南语音频样本,从NeuTTS-Air基础模型微调而来的高质量越南语语音合成模型。该模型能够实现自然流畅的越南语语音合成,支持语音克隆功能,并针对生产环境进行了优化。
mitegvg
该模型是基于VideoMAE架构的暴力检测模型,在Kinetics数据集预训练的基础上,针对暴力检测任务进行了92轮微调。模型采用Vision Transformer架构,专门用于视频内容分析,能够识别视频中的暴力行为。
unsloth
JanusCoder-14B 是基于 Qwen3-14B 构建的 14B 参数开源基础模型,旨在为代码智能建立统一的视觉编程接口。该模型在 JANUSCODE-800K 多模态代码语料库上训练,能够统一处理各种视觉编程任务。
JanusCoder-8B是基于Qwen3-8B构建的开源代码智能基础模型,旨在建立统一的视觉编程接口。该模型在JANUSCODE-800K(迄今为止最大的多模态代码语料库)上训练,能够处理各种视觉编程任务,包括数据可视化、交互式Web UI和代码驱动动画等。
amazon
Chronos-2是一个拥有1.2亿参数的时间序列基础模型,支持零样本预测。它在单一架构内支持单变量、多变量和协变量感知任务,在多个基准测试中实现了零样本预测的最先进精度,且推理效率极高。
gpt-oss-safeguard-120b 是 OpenAI 基于 gpt-oss 构建的安全推理模型,拥有 1170 亿参数(其中 51 亿为活跃参数)。该模型专门针对安全用例设计,能够根据提供的安全策略对文本内容进行分类和执行基础安全任务。
ModelCloud
这是一个基于MiniMax M2基础模型的4bit W4A16量化版本,由ModelCloud的@Qubitum使用GPT-QModel工具进行量化。该模型专门针对文本生成任务进行了优化,在保持较好性能的同时显著减少了模型大小和推理资源需求。
NightForger
这是AvitoTech/avibe模型的GGUF量化版本,基于Qwen3-8B基础模型进行俄语监督微调,使用自定义分词器优化俄语处理能力,专为俄语文本生成任务设计。
meituan-longcat
LongCat-Video是一款具有136亿参数的基础视频生成模型,在文本到视频、图像到视频和视频续帧等生成任务中表现出色,尤其擅长高效、高质量的长视频生成。
redis
这是一个基于Cross Encoder架构的语义相似度计算模型,在LangCache句子对数据集上对Reason-ModernColBERT基础模型进行了微调。该模型专门用于计算文本对之间的相似度得分,适用于句子对分类和语义缓存等任务。
yueqis
这是基于Qwen-Coder-14B模型在网络数据集上进行微调的版本,专门针对网络数据场景优化,相比基础版本在特定网络任务中表现更优。模型经过3个epochs的训练,学习率为5e-5。
这是GLM-4.5-Air-REAP-82B-A12B模型的MXFP4_MOE量化版本,专门针对文本生成任务进行了优化。该模型基于cerebras的GLM-4.5-Air-REAP-82B-A12B基础模型,通过MXFP4混合专家量化技术实现,在保持性能的同时显著减小模型体积和推理成本。
Mungert
Fathom-Search-4B GGUF是专为文本生成任务打造的强大工具,基于特定的基础模型和技术生成,在搜索密集型基准测试中表现卓越,能够有效解决长周期信息检索与合成的问题。
cpatonn
Qwen3-VL-32B-Instruct AWQ - INT4是基于Qwen3-VL-32B-Instruct基础模型的4位量化版本,采用AWQ量化方法,在保持性能的同时显著减少存储和计算资源需求。这是Qwen系列中最强大的视觉语言模型,在文本理解、视觉感知、上下文长度等方面全面升级。
这是慧慧AI模型Huihui-MoE-60B-A3B-abliterated的MXFP4_MOE量化版本,为文本生成提供支持。该量化版本基于特定的基础模型进行处理,能在一定程度上优化模型的性能和使用体验。
Cassius6668
这是基于Stable Diffusion XL基础模型1.0的LoRA适配权重,专门针对特定风格进行了微调,可用于生成具有特定艺术风格的图像。
inclusionAI
Ming-flash-omni 预览版是基于 Ling-Flash-2.0 稀疏专家混合(MoE)架构构建的多模态大模型,总参数达100B,每个token仅激活6B参数。该模型在Ming-Omni基础上进行了全面升级,在多模态理解和生成方面有显著提升,特别是在语音识别、图像生成和分割编辑方面表现突出。
Granite-4.0-H-Tiny AWQ - INT4是基于Granite-4.0-H-Tiny基础模型经过AWQ量化处理的4比特版本,在保持性能的同时显著减少资源消耗。该模型具有70亿参数,支持多语言处理,具备丰富的功能包括文本生成、代码补全、工具调用等。
Awesome-MCP-ZH 是一个专为中文用户打造的 MCP(模型上下文协议)资源合集,包含 MCP 的基础介绍、玩法、客户端、服务器和社区资源,帮助用户快速上手 MCP。
MCP Gateway是一个先进的AI基础设施中间件解决方案,作为模型上下文协议(MCP)服务器的代理网关,提供统一接口、敏感信息过滤和生命周期管理功能。
OpenCV MCP Server是一个基于Python的计算机视觉服务,通过Model Context Protocol (MCP)提供OpenCV的图像和视频处理能力。它为AI助手和语言模型提供从基础图像处理到高级对象检测的全套计算机视觉工具,包括图像处理、边缘检测、人脸识别、视频分析和实时对象跟踪等功能。
一个为大型语言模型提供基础数学和统计功能的MCP服务器
Pulumi MCP Server是一个实现模型上下文协议(MCP)的服务,通过Pulumi自动化API和Pulumi云API与Pulumi CLI交互,使客户端无需直接安装Pulumi CLI即可执行基础设施操作。
KOI-MCP是一个集成知识组织基础设施(KOI)与模型上下文协议(MCP)的桥梁框架,使自主代理能够交换丰富的个性特征并将能力暴露为标准化的工具。
该项目是一个专为DevOps工具和平台设计的Model Context Protocol (MCP)服务器集合,通过标准化方式让大型语言模型(LLM)直接与主流DevOps系统交互,实现基础设施、部署流水线、监控等操作的自动化控制。
项目旨在通过MCP协议将RAG应用与open-webui连接,实现模型上下文交互,包括基础PoC验证、知识库集成及客户端对接。
这是一个FIWARE模型上下文协议(MCP)服务器的初始实现,提供上下文代理与其他服务之间的桥梁,包含基础交互功能和意图操作演示。
一个结合FastAPI后端和Gradio前端的MCP基础应用,支持通过简单界面与AI模型交互,集成Google Gemini API实现论文搜索与分析功能。
Netskope NPA MCP Server是一个通过大型语言模型管理Netskope网络私有访问基础设施的协议服务器,提供50多种工具进行配置管理。
一个为大型语言模型提供基础数学和统计功能的MCP服务器。
Sauce Labs MCP服务器是一个与Sauce Labs测试平台全面集成的模型上下文协议服务器,支持AI助手通过自然语言交互管理设备云、测试任务、构建分析和监控测试基础设施。
一个用于构建模型通信协议(MCP)工具的Go语言SDK,提供实现MCP兼容工具的基础组件,可与Cursor IDE等AI应用集成。
AWS Security MCP是一个基于模型上下文协议的服务,允许AI助手通过自然语言查询自主检查和分析AWS基础设施的安全问题,支持多种AWS安全服务,包括IAM、EC2、S3等,并提供安全建议和威胁建模报告。
一个用于构建自定义模型上下文协议(MCP)服务器的模板项目,提供基础结构和工具实现,支持Cursor和Claude Desktop集成。
GoHighLevel MCP服务器是一个基础性项目,旨在通过模型上下文协议(MCP)将GoHighLevel社区与AI自动化连接起来。它提供了对所有子账户级别GoHighLevel API端点的访问,支持269种工具,涵盖联系人管理、消息传递、销售管道、日历预约等多个功能类别。项目强调社区协作、开放架构和教育资源,同时提醒用户注意AI安全、速率限制和数据安全等关键问题。
该项目提供了为Cursor AI实现模型上下文协议(MCP)服务器的全面指南,包含基础概念、实现步骤、代码示例及集成要求,旨在通过自定义工具增强AI能力。
LocalStack MCP服务器是一个模型上下文协议服务,提供工具来管理LocalStack容器及相关任务,简化本地云开发和测试,支持容器操作、基础设施部署、日志分析、IAM策略管理、混沌测试和状态快照等功能。
Norman Finance MCP服务器是一个模型上下文协议服务,允许大型语言模型通过标准化协议与Norman Finance基础API交互,提供会计、发票、公司、客户、税务等管理功能。