俄勒冈州作家伊丽莎白·莱昂对Adobe提起集体诉讼,指控其训练轻量化语言模型SlimLM时,使用了包含其盗版作品在内的非法数据集。SlimLM专为移动设备文档辅助任务优化,Adobe称其基于开源数据集SlimPajama-627B训练。莱昂认为该数据集包含未经授权的作品,侵犯了作者权益。
阿布扎比人工智能集团G42发布开源印英大语言模型NANDA87B,拥有87亿参数,为早期版本升级。该模型由穆罕默德・本・扎耶德人工智能大学与G42旗下Inception公司及芯片商Cerebras合作开发,现已在Hugging Face平台开放权重,供开发者、创作者和企业自由使用与功能扩展。
日本数据科学家本田崇人推出开源编程语言“Sui”,旨在解决大语言模型生成代码的准确性问题,宣称可实现100%准确率。其设计理念源于日本美学“粋”,强调精炼与去除冗余,核心原则包括保证零语法错误率,并使用数字作为变量。
艾伦人工智能研究所发布开源视频语言模型Molmo2系列,包括基于阿里巴巴Qwen3的4B和8B版本,以及基于Ai2Olmo的完全开源7B版本,并公开训练数据,彰显其开源承诺。
开源平台,提供LLM应用的提示管理、评估和可观测性工具。
一个兼容多种大语言模型的开源 AI Agent CLI 工具。
开源编码 LLM,专为软件工程任务设计。
一款 AI 大模型驱动的开源知识库搭建系统。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
$8
$240
52
Bytedance
$1.2
$3.6
4
prithivMLmods
ActIO-UI-7B-RLVR 是由 Uniphore 发布的 70 亿参数视觉语言模型,专门用于计算机界面自动化任务。它基于 Qwen2.5-VL-7B-Instruct,通过监督微调和可验证奖励的强化学习进行优化,在 GUI 导航、元素定位和交互规划等任务上表现出色,在 WARC-Bench 基准测试中达到了开源 7B 模型的领先水平。
mradermacher
这是一个专注于网络安全领域的20B参数开源大语言模型,基于GPT-OSS架构,并融合了多个网络安全指令数据集进行微调。模型提供了多种量化版本,便于在资源受限的环境中部署,可用于生成网络安全相关的文本、代码和分析报告。
ExaltedSlayer
Gemma 3是谷歌推出的轻量级开源多模态模型,本版本为12B参数的指令调优量化感知训练模型,已转换为MLX框架的MXFP4格式,支持文本和图像输入并生成文本输出,具有128K上下文窗口和140+语言支持。
Olmo-3-Think是艾伦人工智能研究所推出的完全开源的语言模型系列,包含7B和32B两种规模。该模型经过专门训练,能够展现明确的推理链,支持透明的逐步推理和可检查的中间思维痕迹,在推理、数学和代码任务中表现出色。
vanta-research
Atom-Olmo3-7B是基于Olmo-3-7B-Instruct微调的语言模型,专门为协作式问题解决和创造性探索而设计。该模型在处理复杂问题时能提供深思熟虑且结构化的分析,同时保持引人入胜的对话风格,具有Apache 2.0开源许可证。
XiaomiMiMo
米模具身模型(MiMo-Embodied)是一款强大的跨具身视觉语言模型,在自动驾驶和具身AI任务中均展现出了卓越的性能。它是首个将这两个关键领域相结合的开源视觉语言模型,显著提升了在动态物理环境中的理解和推理能力。
allenai
Olmo 3是由Allen Institute for AI开发的开源语言模型系列,包含7B和32B两种规格,分为指令(Instruct)和思考(Think)两种变体。该模型具有出色的长链思维能力,能够显著提升数学和编码等推理任务的表现。
HIT-TMG
Uni-MoE 2.0-Omni 是荔枝科技(Lychee)推出的完全开源全模态模型,采用全模态 3D RoPE 和动态容量专家混合架构,显著提升了以语言为中心的多模态理解、推理和生成能力。该版本集成了全模态理解以及音频和图像生成能力。
Olmo 3是Allen Institute for AI (Ai2)开发的全新32B参数语言模型家族,包含Base、Instruct和Think等变体。该模型基于Dolma 3数据集训练,支持65,536的长上下文处理,旨在推动语言模型科学发展。模型完全开源,遵循Apache 2.0许可证。
Gemma 3 27B IT QAT的MLX MXFP4量化版本,是由Google开发的轻量级开源多模态模型。该模型能够同时处理文本和图像输入并生成文本输出,拥有128K大上下文窗口,支持超过140种语言,适用于多种文本生成和图像理解任务。
Lamapi
Next 12B是基于Gemma 3的120亿参数多模态视觉语言模型,是土耳其最先进的开源视觉语言模型。该模型在文本和图像理解方面表现出色,具备先进的推理和上下文感知多模态输出能力,特别提供专业级的土耳其语支持,同时具备广泛的多语言能力。
kenpath
Svara-TTS是一款面向印度语言的开源多语言文本转语音模型,支持19种语言(18种印度语言+印度英语)。该模型基于Orpheus风格的离散音频令牌方法构建,旨在普通GPU/CPU上实现清晰、富有表现力且低延迟的语音合成。
lapa-llm
Lapa LLM v0.1.2是基于Gemma-3-12B开发的乌克兰语处理开源大语言模型,专注于乌克兰语的自然语言处理任务,在乌克兰语处理方面表现出卓越性能。
Open-Bee
Bee-8B是一个先进的全开源多模态大语言模型,专注于数据质量,旨在缩小与专有模型的性能差距。通过使用高质量的Honey-Data-15M语料库和先进的数据处理管道HoneyPipe,在复杂推理等方面展现了卓越性能。
Kwaipilot
KAT-Dev-72B-Exp是一款用于软件工程任务的720亿参数开源大语言模型,在SWE-Bench Verified基准测试中达到74.6%的准确率,是KAT-Coder模型的实验性强化学习版本。
GA Guard系列是开源权重的审核模型,旨在帮助开发者和组织维护语言模型的安全性、合规性以及与现实世界的一致性。该模型可检测七种违规类别,包括非法活动、仇恨与辱骂、个人身份信息与知识产权、提示安全、色情内容、虚假信息以及暴力与自残。
jeevanrushi07
OpenLLaMA 3B v2是一个基于Transformer架构的开源大语言模型,拥有30亿参数。该模型采用MIT许可证,主要用于英文文本生成任务,支持聊天机器人等多种应用场景。
GeneralAnalysis
GA Guard Thinking是General Analysis开发的40亿参数开源审核模型,专门用于检测和防止语言模型生成不安全、不合规的内容。该模型在七个安全类别上进行训练,能够有效识别非法活动、仇恨言论、个人信息泄露等风险内容。
Lapa LLM 12B PT是基于Google Gemma 3-12B开发的开源大语言模型,专门针对乌克兰语处理优化。由乌克兰多所高校研究团队开发,在乌克兰语处理方面表现卓越,具备高效的指令微调和多模态能力。
VLA-Adapter
VLA-Adapter是一种在Libero-Spatial上训练的微型视觉语言动作模型,采用Prismatic-VLM架构,仅使用Qwen2.5-0.5B作为大语言模型主干。该模型在机器人基准测试中超越了参数规模更大的开源VLA模型,实现了高性能的视觉-语言-动作理解与执行。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区构建的服务器,使大型语言模型(LLMs)能够安全、可控地访问工具和数据源。该项目包含多种功能服务器实现,涵盖文件系统、数据库、搜索、API集成等领域,并支持TypeScript和Python SDK开发。
MacPilot CLI是一个开源工具,通过MCP协议让大语言模型与macOS系统交互,提供系统操作功能。
SolidPilot是一个开源的SolidWorks AI助手,采用模块化架构,通过MCP协议与本地语言模型(如Claude)交互,包含Python层、C#适配层和COM桥接等技术组件。
NetBrain MCP是一个开源网络运维平台,通过Model Context Protocol连接大型语言模型与网络设备,实现AI驱动的网络配置、诊断和管理,并提供专业的Web终端界面和网络拓扑可视化功能。
Model Context Protocol (MCP) 是Anthropic发布的开源协议,旨在解决大型语言模型(LLM)与外部数据源和系统连接的标准化问题。它通过提供结构化框架,使模型能够集成和利用外部上下文,从而扩展其能力并提高响应准确性。MCP支持知识扩展、外部工具调用和预写提示等功能。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,旨在为大型语言模型(LLM)提供安全、可控的工具和数据源访问。这些服务器展示了MCP的多样性和可扩展性,涵盖了从文件系统操作到数据库集成、从网络搜索到AI图像生成等多种功能。
MCP Jenkins是一个开源项目,实现了Jenkins与AI语言模型的桥接,遵循Anthropic的MCP规范,支持安全、上下文的AI交互。
MCP-OpenLLM是一个LangChain封装工具,用于无缝集成不同的MCP服务器和开源大语言模型(LLMs),支持使用LangChain社区模型。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,用于为大型语言模型(LLM)提供安全、受控的工具和数据源访问。该项目包含多种功能服务器,如文件系统操作、Git集成、数据库访问等,并支持通过TypeScript和Python SDK快速开发新服务。
使用开源嵌入模型、向量数据库和Gemini大语言模型构建的RAG系统,支持本地文档处理与动态更新索引。
Model Context Protocol (MCP) 是一个开源协议,旨在通过标准化接口让大型语言模型(LLM)与外部工具、服务和数据源无缝交互,简化集成流程并扩展AI能力。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,使大型语言模型(LLM)能够安全、可控地访问工具和数据源。该项目包含多种功能的服务器实现,如文件系统操作、数据库访问、Git管理、Slack集成等,并支持TypeScript和Python SDK。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区开发的服务器,使大型语言模型(LLM)能够安全、可控地访问工具和数据源。该项目包含多种类型的服务器实现,涵盖文件系统、数据库、Git、Slack等多个领域,展示了MCP的多样性和可扩展性。
SCANOSS MCP服务器是一个集成SCANOSS开源扫描技术的服务,通过Model Context Protocol为语言模型提供代码片段扫描、开源许可证合规性检查及组件分析功能。
Model Context Protocol (MCP) 是一个开源协议,提供了一系列参考实现和社区构建的服务器,使大型语言模型(LLM)能够安全、可控地访问工具和数据源。该项目包含多种类型的服务器实现,涵盖文件系统、数据库、Git、Slack等多个领域,支持TypeScript和Python SDK。
该项目提供了一个基于Python的MCP服务器,用于将OSV(开源漏洞)数据与AI助手或大型语言模型集成,通过MCP协议暴露工具和资源以增强LLM的工作流程和能力。
这是一个包含多个开源AI项目的列表,涵盖了从自动化代理、大语言模型、图像生成到AI开发框架等多个领域。这些项目旨在帮助开发者利用AI技术赚钱,包括构建智能助手、自动化工作流、内容生成等应用。
MCP-OpenLLM是一个LangChain包装器,用于无缝集成不同的MCP服务器和开源大语言模型(LLMs),支持使用LangChain社区模型。
模型上下文协议(MCP)是一个开源协议,为大语言模型提供标准化连接外部数据源和工具的方法,支持资源、提示词、工具、采样等功能,本文重点介绍了如何开发和使用MCP工具服务。