OpenAI"星门"项目获Blue Owl 30亿美元债务融资,将用于在美国新墨西哥州建设超大规模AI数据中心,为GPT系列模型、Sora视频生成及未来AI智能体提供算力支持。该项目被视为突破AI算力瓶颈的核心基础设施。
人工智能先驱李飞飞指出,当前AI竞赛过度关注语言模型参数,而忽视核心能力——空间智能。她强调,真正的通用人工智能必须掌握空间推理、物体关系与动态预测,否则将难以实现。空间智能是人类理解并驾驭物理世界的基础,是智能发展的关键引擎。
Generalist公司发布GEN-0基础模型,揭示机器人缩放定律,推动技术从任务定制迈向通用智能。该模型基于27万小时真实世界数据训练,实现跨硬件平台“边想边做”能力,被喻为机器人领域的“ChatGPT时刻”,强调真实数据优于模拟环境。
小鹏汽车在2025科技日发布第二代VLA模型,实现从视觉信号到动作指令的端到端输出,突破传统架构,无需语言转译。该模型成为首个量产物理世界大模型,为智能驾驶、机器人和飞行汽车等领域提供智能基础,能力突出。
Relace为AI代码生成提供模型和基础设施,助力自主代码生成。
首款文本引导视频编辑基础模型,用文本指令轻松变换视频内容。
Qwen Image AI是阿里巴巴Qwen团队推出的开源图像生成和编辑基础模型,用于准确的图像文本渲染和高级编辑。
AgentSphere是一个AI本地云基础设施,用于安全的LLM代码执行。
chatglm
$0.43
输入tokens/百万
$1.01
输出tokens/百万
131.1k
上下文长度
google
$2.16
$18
1M
xai
$21.6
$108
mistral
-
128k
anthropic
200k
baidu
$4
$16
perplexity
127k
$2
$8
32k
ai2
$6.48
$0.72
256k
reka-ai
ai21-labs
$3.53
$7.99
260k
$14.4
$57.6
DevQuasar
本项目基于 moonshotai/Kimi-K2-Thinking 基础模型,通过自定义反量化脚本将原始的INT4模型转换为更高质量的文本生成模型,致力于让知识为每个人所用。
noctrex
这是MiniMax-M2-THRIFT模型的MXFP4_MOE量化版本,在原模型基础上进行了压缩处理,包括25%的专家剪枝(从256到192)并设置top_k=8,同时保留了编码模型的特性,可用于文本生成任务。
cemoss17
nutrient-gram-qwen-3-vl-2b是基于Qwen/Qwen3-VL-2B-Instruct的微调版本,使用TRL进行监督微调训练,主要用于文本生成任务。该模型在保持原有多模态能力的基础上,针对特定任务进行了优化。
labhamlet
WavJEPA是基于波形的联合嵌入预测架构的音频基础模型,利用高级语义表示学习解决语音单元或标记级表示学习的不足。在众多下游基准任务中显著优于最先进的时域音频基础模型,同时所需计算资源大幅减少。
kirankumarpetlu
这是一个基于Google Gemma-2B-IT基础模型,使用PEFT(参数高效微调)和LoRA技术进行优化的文本生成模型。该模型通过参数高效的方法在保持基础模型能力的同时,针对特定任务进行了优化。
Prior-Labs
TabPFN-2.5是基于Transformer架构的表格基础模型,利用上下文学习技术,能够在一次前向传播中解决表格预测问题,为结构化表格数据提供高效的回归和分类解决方案。
dinhthuan
NeuTTS-Air越南语文本转语音模型是基于260多万条越南语音频样本,从NeuTTS-Air基础模型微调而来的高质量越南语语音合成模型。该模型能够实现自然流畅的越南语语音合成,支持语音克隆功能,并针对生产环境进行了优化。
mitegvg
该模型是基于VideoMAE架构的暴力检测模型,在Kinetics数据集预训练的基础上,针对暴力检测任务进行了92轮微调。模型采用Vision Transformer架构,专门用于视频内容分析,能够识别视频中的暴力行为。
unsloth
JanusCoder-14B 是基于 Qwen3-14B 构建的 14B 参数开源基础模型,旨在为代码智能建立统一的视觉编程接口。该模型在 JANUSCODE-800K 多模态代码语料库上训练,能够统一处理各种视觉编程任务。
JanusCoder-8B是基于Qwen3-8B构建的开源代码智能基础模型,旨在建立统一的视觉编程接口。该模型在JANUSCODE-800K(迄今为止最大的多模态代码语料库)上训练,能够处理各种视觉编程任务,包括数据可视化、交互式Web UI和代码驱动动画等。
amazon
Chronos-2是一个拥有1.2亿参数的时间序列基础模型,支持零样本预测。它在单一架构内支持单变量、多变量和协变量感知任务,在多个基准测试中实现了零样本预测的最先进精度,且推理效率极高。
gpt-oss-safeguard-120b 是 OpenAI 基于 gpt-oss 构建的安全推理模型,拥有 1170 亿参数(其中 51 亿为活跃参数)。该模型专门针对安全用例设计,能够根据提供的安全策略对文本内容进行分类和执行基础安全任务。
ModelCloud
这是一个基于MiniMax M2基础模型的4bit W4A16量化版本,由ModelCloud的@Qubitum使用GPT-QModel工具进行量化。该模型专门针对文本生成任务进行了优化,在保持较好性能的同时显著减少了模型大小和推理资源需求。
NightForger
这是AvitoTech/avibe模型的GGUF量化版本,基于Qwen3-8B基础模型进行俄语监督微调,使用自定义分词器优化俄语处理能力,专为俄语文本生成任务设计。
meituan-longcat
LongCat-Video是一款具有136亿参数的基础视频生成模型,在文本到视频、图像到视频和视频续帧等生成任务中表现出色,尤其擅长高效、高质量的长视频生成。
redis
这是一个基于Cross Encoder架构的语义相似度计算模型,在LangCache句子对数据集上对Reason-ModernColBERT基础模型进行了微调。该模型专门用于计算文本对之间的相似度得分,适用于句子对分类和语义缓存等任务。
yueqis
这是基于Qwen-Coder-14B模型在网络数据集上进行微调的版本,专门针对网络数据场景优化,相比基础版本在特定网络任务中表现更优。模型经过3个epochs的训练,学习率为5e-5。
这是GLM-4.5-Air-REAP-82B-A12B模型的MXFP4_MOE量化版本,专门针对文本生成任务进行了优化。该模型基于cerebras的GLM-4.5-Air-REAP-82B-A12B基础模型,通过MXFP4混合专家量化技术实现,在保持性能的同时显著减小模型体积和推理成本。
Mungert
Fathom-Search-4B GGUF是专为文本生成任务打造的强大工具,基于特定的基础模型和技术生成,在搜索密集型基准测试中表现卓越,能够有效解决长周期信息检索与合成的问题。
mlfoundations
Gelato-30B-A3B 是一款用于GUI计算机使用任务的最先进基础模型,在Click-100k数据集上训练,在多个基准测试中超越了之前的专业计算机基础模型和更大的视觉语言模型。
Awesome-MCP-ZH 是一个专为中文用户打造的 MCP(模型上下文协议)资源合集,包含 MCP 的基础介绍、玩法、客户端、服务器和社区资源,帮助用户快速上手 MCP。
MCP Gateway是一个先进的AI基础设施中间件解决方案,作为模型上下文协议(MCP)服务器的代理网关,提供统一接口、敏感信息过滤和生命周期管理功能。
OpenCV MCP Server是一个基于Python的计算机视觉服务,通过Model Context Protocol (MCP)提供OpenCV的图像和视频处理能力。它为AI助手和语言模型提供从基础图像处理到高级对象检测的全套计算机视觉工具,包括图像处理、边缘检测、人脸识别、视频分析和实时对象跟踪等功能。
一个为大型语言模型提供基础数学和统计功能的MCP服务器
Pulumi MCP Server是一个实现模型上下文协议(MCP)的服务,通过Pulumi自动化API和Pulumi云API与Pulumi CLI交互,使客户端无需直接安装Pulumi CLI即可执行基础设施操作。
该项目是一个专为DevOps工具和平台设计的Model Context Protocol (MCP)服务器集合,通过标准化方式让大型语言模型(LLM)直接与主流DevOps系统交互,实现基础设施、部署流水线、监控等操作的自动化控制。
KOI-MCP是一个集成知识组织基础设施(KOI)与模型上下文协议(MCP)的桥梁框架,使自主代理能够交换丰富的个性特征并将能力暴露为标准化的工具。
一个结合FastAPI后端和Gradio前端的MCP基础应用,支持通过简单界面与AI模型交互,集成Google Gemini API实现论文搜索与分析功能。
项目旨在通过MCP协议将RAG应用与open-webui连接,实现模型上下文交互,包括基础PoC验证、知识库集成及客户端对接。
这是一个FIWARE模型上下文协议(MCP)服务器的初始实现,提供上下文代理与其他服务之间的桥梁,包含基础交互功能和意图操作演示。
Netskope NPA MCP Server是一个通过大型语言模型管理Netskope网络私有访问基础设施的协议服务器,提供50多种工具进行配置管理。
一个为大型语言模型提供基础数学和统计功能的MCP服务器。
Sauce Labs MCP服务器是一个与Sauce Labs测试平台全面集成的模型上下文协议服务器,支持AI助手通过自然语言交互管理设备云、测试任务、构建分析和监控测试基础设施。
一个用于构建模型通信协议(MCP)工具的Go语言SDK,提供实现MCP兼容工具的基础组件,可与Cursor IDE等AI应用集成。
AWS Security MCP是一个基于模型上下文协议的服务,允许AI助手通过自然语言查询自主检查和分析AWS基础设施的安全问题,支持多种AWS安全服务,包括IAM、EC2、S3等,并提供安全建议和威胁建模报告。
一个用于构建自定义模型上下文协议(MCP)服务器的模板项目,提供基础结构和工具实现,支持Cursor和Claude Desktop集成。
该项目提供了为Cursor AI实现模型上下文协议(MCP)服务器的全面指南,包含基础概念、实现步骤、代码示例及集成要求,旨在通过自定义工具增强AI能力。
GoHighLevel MCP服务器是一个基础性项目,旨在通过模型上下文协议(MCP)将GoHighLevel社区与AI自动化连接起来。它提供了对所有子账户级别GoHighLevel API端点的访问,支持269种工具,涵盖联系人管理、消息传递、销售管道、日历预约等多个功能类别。项目强调社区协作、开放架构和教育资源,同时提醒用户注意AI安全、速率限制和数据安全等关键问题。
LocalStack MCP服务器是一个模型上下文协议服务,提供工具来管理LocalStack容器及相关任务,简化本地云开发和测试,支持容器操作、基础设施部署、日志分析、IAM策略管理、混沌测试和状态快照等功能。
Norman Finance MCP服务器是一个模型上下文协议服务,允许大型语言模型通过标准化协议与Norman Finance基础API交互,提供会计、发票、公司、客户、税务等管理功能。