阿里通义实验室推出开源工具Qwen-Image-i2L,可将单张图片快速转化为可微调的LoRA模型,大幅降低个性化风格迁移门槛。用户只需上传一张图片,无需大量数据或昂贵算力,即可生成轻量级LoRA模块,并集成到其他生成模型中,实现高效“单图风格迁移”。该技术已在AI社区引发广泛关注。
京东云JoyBuilder平台升级,成功支撑GR00T N1.5模型完成千卡级训练,成为行业首家支持具身智能千卡级LeRobot开源训练框架的AI开发平台。训练效率较开源社区版本提升3.5倍,通过软硬件深度调优和算法突破,大幅提升训练效率与稳定性,显著缩短训练时间。
Zig软件基金会因不满GitHub长期未修复致命bug,宣布迁移至Codeberg。导火索是2022年GitHub引入的safe_sleep脚本存在缺陷,若进程未在1秒内被调度,将导致无限挂起。此举引发开源社区对GitHub工程能力的质疑。
Flux.2开源引爆AI图像生成革命:4MP图片8秒生成仅0.003美元,成本仅为谷歌方案的千分之一。开源社区迅速验证其性能,专业版采样步数降至8步,速度大幅提升。网友直指谷歌定价过高,这场技术突破正在重塑行业竞争格局。
Proxy Lite 是一款开源的 3B 参数视觉语言模型(VLM),专注于网页自动化任务。
一个专注于整理最佳开源推理数据集的社区项目
开源项目,为开源社区提供服务
致力于收录开源社区的phi3训练变体版本,整理训练、推理、部署教程。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
Baidu
128
$6
$24
YOYO-AI
融合了开源社区最顶尖的14B推理模型与代码模型,采用SCE合并技术,以Qwen2.5-Coder-14B作为基础模型进行融合。
ByteDance-Seed
基于DeepSeek-V3架构的90亿参数大语言模型,使用完全开源且仅含英文的3500亿+token数据集从头训练而成,专为开源社区开发和调试设计。
融合了开源社区最顶尖的32B推理模型与代码模型,采用SCE合并技术以Qwen2.5-Coder-32B为基础模型进行融合。
YOYO-O1-32B是一个融合了开源社区顶尖32B推理模型与代码模型的多功能大语言模型,采用SCE融合技术构建。
cjvt
GaMS-9B是基于Google Gemma 2-9B的改进模型,专门针对斯洛文尼亚语进行了持续预训练,同时支持英语、克罗地亚语、塞尔维亚语和波斯尼亚语。该模型在斯洛文尼亚语NLP任务上表现出色,是面向斯洛文尼亚语社区的高性能开源语言模型。
nvidia
鹰隼2号是一个高性能视觉语言模型家族,专注于数据策略和训练方案的透明性,旨在推动开源社区开发具有竞争力的视觉语言模型。
dataautogpt3
PrometheusV1是基于Playground v2.5架构的首个全参数微调文生图模型,由Proteus模型开发者打造,显著提升了开源社区的易用性。
croissantllm
CroissantLLM是一个基于3万亿英法双语token预训练的13亿参数语言模型,旨在为研究和工业社区提供高性能、完全开源的双语模型。
OrionZheng
OpenMoE-Base是一个用于调试目的的混合专家(MoE)基础模型,仅训练了1280亿token。作为OpenMoE项目的一部分,旨在推动开源MoE社区发展。
budecosystem
GenZ 是基于 Meta 开源 Llama V2 700 亿参数模型微调的先进大语言模型,旨在为开源社区提供高性能的文本生成能力。
togethercomputer
RedPajama-INCITE-7B-Instruct 是一个由 Together 和开源 AI 社区领导者共同开发的 69 亿参数语言模型,针对少样本应用进行了微调。
RedPajama-INCITE-Chat-3B-v1是由Together Computer联合开源AI社区领导者共同开发的28亿参数聊天语言模型,在OASST1和Dolly2数据集上进行了微调,专门用于增强对话能力。
Open Data MCP是一个开源项目,旨在通过MCP协议将公开数据集快速接入LLM应用,实现开放数据的便捷访问和社区化发布。
Open Data MCP是一个开源项目,旨在通过MCP协议将公开数据集快速接入LLM应用。项目提供CLI工具实现2分钟接入(当前支持Claude),并建立社区协作框架让开发者能轻松贡献和发布公开数据集。核心目标是构建连接所有LLM应用与数百万公开数据集的基础设施。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区构建的服务器,使大型语言模型(LLMs)能够安全、可控地访问工具和数据源。该项目包含多种功能服务器实现,涵盖文件系统、数据库、搜索、API集成等领域,并支持TypeScript和Python SDK开发。
MCP服务器的开源社区
MCP Servers是一个GitHub托管的项目,包含自动化测试、代码覆盖率检查和安全扫描等工作流程,遵循开源协议和社区行为准则。
DeRisk是一个AI原生的风险智能管理系统,提供7*24小时全面深入的应用系统风险防护,基于开源社区协作开发的模块化框架,专注于风险与数据领域的能力衍生。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,旨在为大型语言模型(LLM)提供安全、可控的工具和数据源访问。这些服务器展示了MCP的多样性和可扩展性,涵盖了从文件系统操作到数据库集成、从网络搜索到AI图像生成等多种功能。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,用于为大型语言模型(LLM)提供安全、受控的工具和数据源访问。该项目包含多种功能服务器,如文件系统操作、Git集成、数据库访问等,并支持通过TypeScript和Python SDK快速开发新服务。
MCP-OpenLLM是一个LangChain封装工具,用于无缝集成不同的MCP服务器和开源大语言模型(LLMs),支持使用LangChain社区模型。
mcp-server-suite是一个开源的MCP服务器集合,旨在成为自动化领域的'HuggingFace'。它提供模块化的服务器组件,支持从网页搜索到数据库操作等多种功能,并鼓励社区贡献扩展。项目包含核心服务器和规划中的多种专业服务,涵盖AI/ML、软件开发和非技术场景,目标是通过标准化协议简化自动化流程。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,使大型语言模型(LLM)能够安全、可控地访问工具和数据源。该项目包含多种功能的服务器实现,如文件系统操作、数据库访问、Git管理、Slack集成等,并支持TypeScript和Python SDK。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,使大型语言模型(LLM)能够安全、可控地访问工具和数据源。该项目包含多种类型的服务器实现,涵盖文件系统、数据库、Git、Slack等多个领域,展示了MCP的多样性和可扩展性。
AutoGPT是一个开源的AI代理工具包,提供模块化和可扩展的框架,支持用户构建、测试和监控AI代理。项目包含Forge创新实验室、Benchmark测试环境和用户友好的前端界面,采用Agent Protocol标准化通信。社区活跃,定期举办黑客马拉松等活动推动创新。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区构建的服务器,使大型语言模型(LLM)能够安全、可控地访问工具和数据源。该项目包含多种类型的服务器实现,涵盖文件系统、数据库、Git、Slack等多个领域,支持TypeScript和Python SDK。
这是一个面向初学者的生成式AI课程项目,提供从环境搭建到实际应用的完整学习路径。项目包含6个概念课程和6个编程课程,使用Azure OpenAI服务进行实践操作。学习者可以通过GitHub Codespaces快速开始,或选择本地安装Python环境。项目强调API密钥的安全管理,并提供了详细的设置指南。此外,还鼓励学习者参与开源贡献,并提供了AI社区交流平台。
这是一个整合了QuickBooks Time所有API功能的MCP服务器项目,包含任务代码、报表、时间表和用户管理等工具,通过AI辅助开发并开源供社区改进。
Ultra-MCP-Servers是一个开源项目,支持用户创建和管理自己的Model Context Protocol (MCP)服务器,提供多种工具和服务集成,如YouTube转录、云存储、网络爬虫等,并鼓励社区贡献。
一个轻量级开源的Monad开发社区MCP服务器,提供Flask API接口和Monad测试网集成功能,支持通过地址查询余额。
Solscan MCP是一个创新的服务器项目,旨在通过自然语言查询Solana交易,简化与Solana区块链的交互。
MCP-OpenLLM是一个LangChain包装器,用于无缝集成不同的MCP服务器和开源大语言模型(LLMs),支持使用LangChain社区模型。