Perplexity发布通用AI代理系统Perplexity Computer,能像人类一样操作界面并支持长时间连续任务。其创新在于采用“模型编排”策略,整合了19个顶级实验室的专有及开源模型,而非依赖单一模型。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://app.aibase.com/zh1、推理性能翻倍!新用户可享受首月超低折扣,以不到市场同类模型5%的成本获得高性能编程辅助,加速AI编程工具在中小企业及个人开发者中的普及。
通义千问团队发布Qwen3.5系列多款新开源模型,包括Qwen3.5-122B-A10B和Qwen3.5-35B-A3B等,并同步上线生产级API服务。新模型在复杂Agent任务中表现突出,显著缩小了与顶尖闭源模型的性能差距,部分模型性能已超越前代更大参数规模版本。
MiniMax 发布 M2.5 模型,这是其 M2 系列在 108 天内的第三次升级。模型开源权重同步上线魔搭 ModelScope,在编程、搜索、办公等多场景表现领先,实现了能力、效率与成本的三重突破。该版本提供从零代码使用到私有化部署的全流程方案,并附有工具调用与推理参数调优的实战指南,旨在推动低成本 Agent 时代的到来。M2.5 在多项评测中成绩突出,例如在 SWE-Bench Verified 中表现亮眼。
Openai
$2.8
输入tokens/百万
$11.2
输出tokens/百万
1k
上下文长度
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$2
$20
$6
$24
Baidu
128
prithivMLmods
ActIO-UI-7B-RLVR 是由 Uniphore 发布的 70 亿参数视觉语言模型,专门用于计算机界面自动化任务。它基于 Qwen2.5-VL-7B-Instruct,通过监督微调和可验证奖励的强化学习进行优化,在 GUI 导航、元素定位和交互规划等任务上表现出色,在 WARC-Bench 基准测试中达到了开源 7B 模型的领先水平。
manuelcaccone
Gemma-3 ActuaryEnough2是一款专为精算领域打造的AI模型,基于超过11,000个精算问答对进行微调训练,能够将简单的保险问题转化为严谨的精算专业语言。该模型为ActuaryEnough提供支持,以开源形式发布供教育和研究使用。
giladgd
GPT-OSS-120b-GGUF 是 OpenAI 发布的 1200 亿参数开源文本生成模型,采用 Apache 2.0 宽松许可证,支持灵活的推理强度配置和完整思维链访问,具备原生函数调用、网页浏览和代码执行能力。
cpatonn
GLM-4.5-Air-AWQ是基于GLM-4.5-Air基础模型的8位量化版本,专为智能代理设计,采用混合推理模式,支持复杂推理和即时响应,在MIT开源许可下发布。
minpeter
这是一个基于transformers库开发的多语言基础模型,特别针对韩语进行了优化。模型参数量为1.87亿,采用Apache-2.0开源许可证发布。
inclusionAI
玲珑线性预览版是由InclusionAI开源发布的混合线性稀疏大语言模型,总参数量17.1B,激活参数量3.0B。该模型基于混合线性注意力机制实现长文本推理,在推理过程中具备近线性计算复杂度与近恒定空间复杂度。
tensorblock
NVIDIA发布的8B参数规模的开源大语言模型,基于Llama-3架构,提供多种量化版本
Gemma 3.4B IT 是 Google 发布的轻量级开源大语言模型,基于 3.4B 参数规模,适用于对话和指令跟随任务。
tencent
混元-7B是腾讯发布的开源大语言模型,具有256K长文本处理能力和分组查询注意力机制(GQA),在中文7B稠密模型中表现优异。
kifai
GECKO是基于韩语、英语和代码训练的70亿参数解码器专用Transformer模型,采用Apache 2.0许可开源发布。
emrecanacikgoz
Llama 2 是 Meta 发布的新一代开源大语言模型,包含 7B、13B 和 70B 三种参数规模版本,支持商用许可。
ibm-granite
IBM发布的基于Apache-2.0许可证的开源大语言模型,复现了Meta的Llama2-7B架构,使用2T token数据训练而成。
meta-llama
Meta发布的80亿参数指令微调大语言模型,优化对话场景并在基准测试中超越多数开源聊天模型
TheBloke
Mistral 7B v0.1是由Mistral AI开发的一个70亿参数的开源大语言模型,采用Apache 2.0许可证发布。
openlm-research
OpenLLaMA是LLaMA大语言模型的开源复现版本,基于宽松许可证发布,包含3B/7B/13B参数规模的系列模型
OpenLLaMA是Meta AI LLaMA模型的开源复现版本,采用Apache 2.0许可协议发布,包含3B/7B/13B参数规模
Salesforce
Salesforce AI Research发布的7B参数大语言模型,支持8K长序列输入,基于Apache-2.0协议开源
Askinkaty
该模型是一个支持俄语的开源模型,采用Apache-2.0许可证发布。
ahmed-masry
一个基于GPL-3.0许可证发布的开源模型,具体功能和应用领域需进一步确认
huggyllama
LLaMA-7b是由Meta发布的开源大语言模型,参数规模为70亿,适用于自然语言处理任务。
Open Data MCP是一个开源项目,旨在通过MCP协议将公开数据集快速接入LLM应用,实现开放数据的便捷访问和社区化发布。
Open Data MCP是一个开源项目,旨在通过MCP协议将公开数据集快速接入LLM应用。项目提供CLI工具实现2分钟接入(当前支持Claude),并建立社区协作框架让开发者能轻松贡献和发布公开数据集。核心目标是构建连接所有LLM应用与数百万公开数据集的基础设施。
该项目使用优化的GitHub Actions工作流,为开源项目设计,最小化资源使用同时保持质量。包含快速PR检查、完整CI/CD管道、安全扫描、自动化发布等功能。
Model Context Protocol (MCP) 是Anthropic发布的开源协议,旨在解决大型语言模型(LLM)与外部数据源和系统连接的标准化问题。它通过提供结构化框架,使模型能够集成和利用外部上下文,从而扩展其能力并提高响应准确性。MCP支持知识扩展、外部工具调用和预写提示等功能。