开源中国完成数亿元C+轮融资,苏创投跟投。公司从代码托管平台发展为覆盖研发全周期的基建平台,2023年推出模型托管平台“模力方舟”,强化AI时代开源基础设施。
通义千问团队发布Qwen3.5系列多款新开源模型,包括Qwen3.5-122B-A10B和Qwen3.5-35B-A3B等,并同步上线生产级API服务。新模型在复杂Agent任务中表现突出,显著缩小了与顶尖闭源模型的性能差距,部分模型性能已超越前代更大参数规模版本。
Lightricks开源LTX-2模型,支持生成20秒4K高清视频,实现画面、声音、口型、环境音和音乐的完美同步。模型权重、训练代码、基准测试和工具包已全部开源,托管于GitHub,社区反响热烈。
Meta CEO扎克伯格亲自负责AI商业化,新一代大模型“Avocado”计划2026年春季发布,将仅提供API和托管服务,不再开源。该模型整合了谷歌、OpenAI及阿里等第三方开源技术,目标达到前沿性能。Meta已与英伟达签署50亿美元H100订单,专门用于模型训练。
由Kilo托管的AI,一键部署OpenClaw,有500+模型,企业级安全
与私有自托管语言模型对话的iOS/macOS应用
在线AI图像生成和模型托管平台
开源大型语言模型的托管、部署、构建和微调一站式解决方案。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
anishreddy91
这是一个托管在Hugging Face Transformers库中的通用模型,具体信息需要从模型页面获取详细信息
Wfiles
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未提供详细信息。
nyu-dice-lab
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途待补充。
codys12
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息
fztkm
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途尚未明确说明。
muhammadnoman76
Jayant9928
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需要进一步补充信息。
TheStageAI
弹性模型是由TheStage AI ANNA生成的模型系列,通过滑动控制条可自由调节模型规模、延迟与质量,为自托管场景提供最快最灵活的解决方案。
eduardo-bolognini
Dumi2025
自托管场景下最快最灵活的模型,通过滑动控制条可自由调节模型体积、推理延迟与质量平衡
sabari15
这是一个托管在Hugging Face Hub上的transformers模型,具体功能未明确说明。
tsiaggas
Sanali18
这是一个托管在Hugging Face Hub上的transformers模型,具体功能和用途需进一步补充信息。
AndrewLi403
Rhulli
HrutikAdsare
reidddd
LiuZH-19
Pretorin CLI 为开发者和AI代理提供合规数据、实施上下文和证据工作流的直接访问工具,支持托管模型和自带代理两种使用模式,帮助集成到CI流程或AI工具中。
Dynatrace Managed MCP服务器是一个开源项目,允许AI助手通过模型上下文协议(MCP)与自托管的Dynatrace Managed部署进行交互,将可观测性数据直接集成到AI辅助工作流中。它支持本地和远程模式,可配置多个环境,提供问题、安全、实体、SLO、事件、日志和指标等数据的查询能力。
plugged.in App是一个用于管理模型上下文协议(MCP)服务器的综合Web应用,提供统一界面来发现、配置和使用跨多个MCP服务器的AI工具。它支持多工作区、交互式测试平台、工具管理、资源发现等功能,可与各种MCP客户端集成,并支持自托管部署。
YARR是一个基于模型上下文协议(MCP)的自托管媒体技术栈服务器,通过LLM实现智能自动化与自然语言控制,同时支持传统API访问。
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供网页抓取、爬取、搜索、内容提取等功能,支持云API和自托管实例。
一个精选的托管云MCP服务器列表,提供通过简单URL端点访问的模型上下文协议(MCP)服务,帮助AI应用快速集成外部工具和数据。
Arc MCP Server是一个简化框架部署的模型上下文协议服务器,专注于共享托管环境,支持多平台部署和引导式操作。
一个功能齐全、可自托管的OAuth 2.0服务器,专为现代AI时代和模型上下文协议(MCP)设计,支持多种框架和数据库,让用户完全掌控自己的数据和认证流程。
一个生产就绪的MCP服务器模板,用于托管自定义AI工具和提示模板,支持远程部署和本地运行,帮助开发者快速构建AI模型交互工具。
Firecrawl MCP Server是一个集成Firecrawl网页抓取能力的模型上下文协议服务器,提供网页抓取、爬取、搜索、内容提取和批量处理等功能,支持云端和自托管部署。
一个基于FastAPI的CLI工具,用于管理和托管MCP服务器,提供HTTP API接口与工具资源交互,支持多种LLM模型。
DataBeak是一个基于模型上下文协议(MCP)的AI增强型CSV数据处理工具,提供40多种数据操作、分析和验证功能,专为AI助手设计,支持从URL或字符串加载数据,具备高级分析、数据验证和会话管理能力,采用无状态架构,适合安全Web托管。
Firecrawl MCP Server是一个集成Firecrawl网页抓取功能的模型上下文协议服务器,提供网页抓取、爬取、搜索、内容提取和批量处理等功能,支持云API和自托管实例。