特斯拉前高管Andrej Karpathy评论开源OCR论文时提出,图像可能比文本更适合作为大语言模型的输入方式。他认为当前文本token输入效率低下,建议未来研究转向图像输入,这一观点在AI社区引发热议。
开源社区推出LLaVA-OneVision-1.5多模态模型,实现技术突破。该模型历经两年发展,从基础图文对齐升级为能处理图像、视频的综合框架,核心提供开放高效的可复现训练架构,支持用户便捷构建高质量视觉语言模型,训练过程分三个阶段推进。
蚂蚁集团开源dInfer框架,专用于扩散大语言模型高效推理。该框架将推理速度提升10倍,在保持同等模型性能下超越传统自回归模型。自回归模型逐字生成文本速度受限,扩散模型通过去噪过程实现更高效推理,推动自然语言处理技术发展。
开源项目nanochat大幅降低AI模型训练门槛,仅需100美元即可构建功能完整的聊天AI系统。它提供从数据处理到部署的一键式流程,代码简洁易用,既是实用工具也是教学平台,帮助开发者深入理解大型语言模型训练全流程。
一个兼容多种大语言模型的开源 AI Agent CLI 工具。
开源编码 LLM,专为软件工程任务设计。
一款 AI 大模型驱动的开源知识库搭建系统。
DeepSeek R1-0528 是一款开源大模型,性能媲美 OpenAI o3 模型。
moonshotai
$4.1
Input tokens/M
$16.56
Output tokens/M
128k
Context Length
meta
$1.44
$6.48
minimax
$1
$8
4M
alibaba
-
131.1k
google
8.2k
2k
Open-Bee
Bee-8B是一个先进的全开源多模态大语言模型,专注于数据质量,旨在缩小与专有模型的性能差距。通过使用高质量的Honey-Data-15M语料库和先进的数据处理管道HoneyPipe,在复杂推理等方面展现了卓越性能。
Kwaipilot
KAT-Dev-72B-Exp是一款用于软件工程任务的720亿参数开源大语言模型,在SWE-Bench Verified基准测试中达到74.6%的准确率,是KAT-Coder模型的实验性强化学习版本。
prithivMLmods
GA Guard系列是开源权重的审核模型,旨在帮助开发者和组织维护语言模型的安全性、合规性以及与现实世界的一致性。该模型可检测七种违规类别,包括非法活动、仇恨与辱骂、个人身份信息与知识产权、提示安全、色情内容、虚假信息以及暴力与自残。
jeevanrushi07
OpenLLaMA 3B v2是一个基于Transformer架构的开源大语言模型,拥有30亿参数。该模型采用MIT许可证,主要用于英文文本生成任务,支持聊天机器人等多种应用场景。
GeneralAnalysis
GA Guard Thinking是General Analysis开发的40亿参数开源审核模型,专门用于检测和防止语言模型生成不安全、不合规的内容。该模型在七个安全类别上进行训练,能够有效识别非法活动、仇恨言论、个人信息泄露等风险内容。
VLA-Adapter
VLA-Adapter是一种在Libero-Spatial上训练的微型视觉语言动作模型,采用Prismatic-VLM架构,仅使用Qwen2.5-0.5B作为大语言模型主干。该模型在机器人基准测试中超越了参数规模更大的开源VLA模型,实现了高性能的视觉-语言-动作理解与执行。
XiaomiMiMo
MiMo Audio是小米开发的音频语言模型,通过大规模预训练展现出强大的少样本学习能力。该模型突破了传统模型依赖特定任务微调的局限,在语音智能、音频理解等任务中表现出色,在开源模型中达到先进水平。
MiMo Audio是一款基于大规模预训练的音频语言模型,在语音智能和音频理解基准测试中取得了开源模型的SOTA性能。该模型展现出强大的少样本学习能力,能够泛化到训练数据中未包含的任务,支持语音转换、风格迁移和语音编辑等多种音频任务。
GA Guard Lite是General Analysis开发的轻量级开源审核模型,专门用于检测语言模型输出中的违规内容。该模型能够识别七类安全风险,包括非法活动、仇恨言论、个人信息泄露等,为AI应用提供高效的内容安全防护。
PerceptronAI
Isaac-0.1是感知公司推出的首个开源视觉语言模型,拥有20亿参数,专为现实世界应用设计。该模型在多模态理解和空间推理方面表现出色,性能达到甚至超越比它大50倍以上的模型,树立了新的效率标准。
inclusionAI
LLaDA-MoE是基于扩散原理构建的新型混合专家语言模型,是首个开源的MoE扩散大语言模型,在约20万亿个标记上从头预训练,总参数70亿,推理时仅激活14亿参数,在代码生成和数学推理等任务中表现卓越。
allura-forge
MiMo是小米专为推理任务从头开始训练的大语言模型系列,通过优化预训练和后训练策略,在数学和代码推理任务上展现出卓越性能。项目开源了7B参数规模的多个版本,包括基础模型、SFT模型和RL模型。
OpenGVLab
InternVL3.5是开源多模态模型家族的新成员,显著提升了InternVL系列的通用性、推理能力和推理效率,支持GUI交互等新功能,达到开源多模态大语言模型的先进水平。
InternVL3.5-1B是InternVL系列的开源多模态模型,参数量为1.1B,包含0.3B视觉参数和0.8B语言参数。该模型显著提升了通用性、推理能力和推理效率,支持GUI交互等新功能。
lmstudio-community
Seed-OSS-36B-Instruct是由ByteDance-Seed开发的大型语言模型,参数量达360亿,采用Apache-2.0开源许可证。该模型基于transformers库构建,支持vllm和mlx技术优化,特别针对苹果Silicon芯片进行了8位量化处理,提供高效的文本生成能力。
manuelcaccone
Gemma-3 ActuaryEnough2是一款专为精算领域打造的AI模型,基于超过11,000个精算问答对进行微调训练,能够将简单的保险问题转化为严谨的精算专业语言。该模型为ActuaryEnough提供支持,以开源形式发布供教育和研究使用。
gabriellarson
Seed-OSS是由字节跳动Seed团队开发的开源大语言模型系列,具备强大的长上下文处理、推理和智能体交互能力。仅使用12T token训练,在多个公开基准测试中表现出色,支持高达512K的原生长上下文处理。
yarikdevcom
Seed-OSS-36B-Instruct是由ByteDance开发的360亿参数大型语言模型,基于Apache-2.0许可证开源。该模型专门针对指令跟随任务进行了优化,支持文本生成和对话功能,具有强大的理解和生成能力。
dnakov
Seed-OSS-36B-Instruct是字节跳动开发的文本生成模型,基于36B参数规模的大语言模型架构,专门针对指令跟随任务进行优化。该模型支持中英文双语,采用Apache-2.0开源许可证,可通过vllm和mlx推理框架进行高效部署。
Seed-OSS-36B-Instruct是由字节跳动开发的360亿参数大型语言模型,基于MLX框架优化,专注于文本生成任务。该模型支持中英文双语,采用Apache-2.0开源许可证,具备强大的指令跟随和内容生成能力。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区构建的服务器,使大型语言模型(LLMs)能够安全、可控地访问工具和数据源。该项目包含多种功能服务器实现,涵盖文件系统、数据库、搜索、API集成等领域,并支持TypeScript和Python SDK开发。
SolidPilot是一个开源的SolidWorks AI助手,采用模块化架构,通过MCP协议与本地语言模型(如Claude)交互,包含Python层、C#适配层和COM桥接等技术组件。
MacPilot CLI是一个开源工具,通过MCP协议让大语言模型与macOS系统交互,提供系统操作功能。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,旨在为大型语言模型(LLM)提供安全、可控的工具和数据源访问。这些服务器展示了MCP的多样性和可扩展性,涵盖了从文件系统操作到数据库集成、从网络搜索到AI图像生成等多种功能。
Model Context Protocol (MCP) 是Anthropic发布的开源协议,旨在解决大型语言模型(LLM)与外部数据源和系统连接的标准化问题。它通过提供结构化框架,使模型能够集成和利用外部上下文,从而扩展其能力并提高响应准确性。MCP支持知识扩展、外部工具调用和预写提示等功能。
MCP Jenkins是一个开源项目,实现了Jenkins与AI语言模型的桥接,遵循Anthropic的MCP规范,支持安全、上下文的AI交互。
MCP-OpenLLM是一个LangChain封装工具,用于无缝集成不同的MCP服务器和开源大语言模型(LLMs),支持使用LangChain社区模型。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,用于为大型语言模型(LLM)提供安全、受控的工具和数据源访问。该项目包含多种功能服务器,如文件系统操作、Git集成、数据库访问等,并支持通过TypeScript和Python SDK快速开发新服务。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,使大型语言模型(LLM)能够安全、可控地访问工具和数据源。该项目包含多种功能的服务器实现,如文件系统操作、数据库访问、Git管理、Slack集成等,并支持TypeScript和Python SDK。
Model Context Protocol (MCP) 是一个开源协议,旨在通过标准化接口让大型语言模型(LLM)与外部工具、服务和数据源无缝交互,简化集成流程并扩展AI能力。
使用开源嵌入模型、向量数据库和Gemini大语言模型构建的RAG系统,支持本地文档处理与动态更新索引。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,使大型语言模型(LLM)能够安全、可控地访问工具和数据源。该项目包含多种类型的服务器实现,涵盖文件系统、数据库、Git、Slack等多个领域,展示了MCP的多样性和可扩展性。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区构建的服务器,使大型语言模型(LLM)能够安全、可控地访问工具和数据源。该项目包含多种类型的服务器实现,涵盖文件系统、数据库、Git、Slack等多个领域,支持TypeScript和Python SDK。
SCANOSS MCP服务器是一个集成SCANOSS开源扫描技术的服务,通过Model Context Protocol为语言模型提供代码片段扫描、开源许可证合规性检查及组件分析功能。
该项目提供了一个基于Python的MCP服务器,用于将OSV(开源漏洞)数据与AI助手或大型语言模型集成,通过MCP协议暴露工具和资源以增强LLM的工作流程和能力。
这是一个包含多个开源AI项目的列表,涵盖了从自动化代理、大语言模型、图像生成到AI开发框架等多个领域。这些项目旨在帮助开发者利用AI技术赚钱,包括构建智能助手、自动化工作流、内容生成等应用。
MCP-OpenLLM是一个LangChain包装器,用于无缝集成不同的MCP服务器和开源大语言模型(LLMs),支持使用LangChain社区模型。
模型上下文协议(MCP)是一个开源协议,为大语言模型提供标准化连接外部数据源和工具的方法,支持资源、提示词、工具、采样等功能,本文重点介绍了如何开发和使用MCP工具服务。