科大讯飞发布AstronClaw升级版,推出9项新产品,展示“软硬一体”AI Agent架构。该架构推动AI从“对话助手”向“物理执行中枢”转变,旨在突破屏幕限制,让大模型能力深入物理世界和复杂业务流。在办公领域,AstronClaw与讯飞办公本融合,结构化处理职场碎片化信息。
苹果公司为Siri工程师团队启动“AI编程训练营”,通过系统性再培训提升其大语言模型工程能力,以支持新一代Siri和iOS系统AI功能开发。此举表明苹果已将AI重塑Siri提升至公司战略高度,旨在追赶谷歌和OpenAI在生成式AI领域的进展。培训内容涵盖模型原理到工程部署全链路,重点聚焦Prompt工程。
月之暗面推出专为AI编程优化的万亿参数大模型Kimi K2.6-code-preview,已在Kimi Code上线,标志着国产编程AI进入万亿参数时代。该模型在K2.5基础上深度优化,重点提升推理深度、代码生成可靠性和多轮对话能力,思维链表现更强,代码生成更稳定,支持复杂编程任务。
研究显示,当前主流AI模型在模拟临床诊疗推理时仍存在明显不足,尚不具备独立承担医疗任务的能力。该研究测试了21种大语言模型,结果发表于《JAMA Network Open》。
GLM-5是智谱AI第五代大模型,7450亿参数,具多项前沿能力,现已开放。
一种无需搜索即可激励 LLM 搜索能力的框架。
利用强化学习提升扩散大语言模型的推理能力。
高效的开源专家混合视觉语言模型,具备多模态推理能力。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
Baidu
128
$2
$20
$6
$24
GuangyuanSD
Z-Image-Re-Turbo 是一个基于文本生成图像的模型,它在 Z-Image-De-Turbo 模型的基础上进行了去还原和重新加速优化。该模型旨在兼顾训练时的便利性与推理时的速度,恢复了接近原始 Turbo 模型的快速生成能力,同时保持了与 Z-Image-De-Turbo 相同的训练友好特性,使其能够完美兼容 Z-Image 生态系统中已训练的大量 LoRA 模型。
DavidAU
Qwen3-4B-Hivemind-Instruct-NEO-MAX-Imatrix-GGUF 是一款基于 Qwen3 架构的 4B 参数指令微调大语言模型,采用 NEO Imatrix 与 MAX 量化技术,具备 256k 的超长上下文处理能力。该模型在多个基准测试中表现出色,是一款性能强劲的通用型模型。
TeichAI
本模型是基于Qwen3-4B-Thinking-2507基础模型,使用高推理难度的Gemini 3 Pro预览数据集进行蒸馏训练得到的模型。它专注于提升在编码和科学领域的复杂推理能力,通过特定数据集的训练,旨在将大型模型(如Gemini 3 Pro)的推理能力高效地迁移到较小规模的模型中。
nightmedia
这是一个实验性的量化大语言模型,采用Deckard(qx)量化方法,嵌入层为3位量化。该模型通过范数保持双投影消除(NPBA)技术重构,不仅移除了安全限制机制,还增强了模型的认知深度和推理能力。
Justin331
SAM 3 是 Meta 推出的第三代可提示分割基础模型,统一支持图像和视频分割任务。相比前代 SAM 2,它引入了开放词汇概念分割能力,能够处理大量文本提示,在 SA-CO 基准测试中达到人类表现的 75-80%。
MaziyarPanahi
本项目提供了Qwen3-4B-Thinking-2507模型的GGUF格式文件,这是一个具有思维链推理能力的4B参数大语言模型,支持多种量化版本,便于在各种硬件上部署运行。
sbintuitions
Sarashina2.2-Vision-3B是由SB Intuitions训练的日本大型视觉语言模型,基于Sarashina2.2-3B-Instruct和SigLIP图像编码器构建,具备强大的图像到文本转换能力,支持日语和英语的多模态处理。
Guilherme34
Qwen3-32B是Qwen系列最新一代的大语言模型,具备强大的推理、指令遵循、智能体交互和多语言处理能力。它支持100多种语言和方言,能在思维模式和非思维模式间无缝切换,为用户提供自然流畅的对话体验。
基于Qwen 3微调的12B参数大语言模型,具备256k超长上下文处理能力,专门针对长文本生成任务进行优化。该模型结合了VLTO 8B模型基础、Brainstorm 20x调优和NEO Imatrix数据集量化技术,能够生成高质量的长文本内容。
cyankiwi
ERNIE-4.5-VL-28B-A3B-Thinking AWQ - INT8是基于百度ERNIE-4.5架构的多模态大语言模型,通过AWQ量化技术实现8位精度,在保持高性能的同时大幅降低内存需求。该模型在视觉推理、STEM问题解决、图像分析等方面表现出色,具备强大的多模态理解和推理能力。
Mungert
aquif-3.5系列中的顶尖模型,具备先进推理能力和100万标记的大上下文窗口,在多个基准测试中表现卓越,AAII综合得分达到60分。
facebook
SAM 3 是 Meta 推出的第三代可提示分割基础模型,能够利用文本或视觉提示(点、框、掩码)来检测、分割和跟踪图像与视频中的对象。与前代相比,SAM 3 引入了对开放词汇概念所有实例进行详尽分割的能力,支持大量开放词汇提示,在 SA-CO 基准上达到人类表现的 75-80%。
mlx-community
Kimi-K2-Thinking 是由 mlx-community 从 moonshotai 原版模型转换而来的 MLX 格式大语言模型,采用 mlx-lm 0.28.4 版本进行转换,保留了原模型的思维链推理能力。
noctrex
Aquif-3.5-Max-42B-A3B是一个420亿参数的大型语言模型,经过MXFP4_MOE量化处理,在保持高质量文本生成能力的同时优化了推理效率。该模型基于先进的混合专家架构,适用于多种自然语言处理任务。
unsloth
Qwen3-VL是通义大模型系列中最强大的视觉语言模型,具备卓越的文本理解与生成能力、深入的视觉感知与推理能力、长上下文支持、强大的空间和视频动态理解能力以及出色的智能体交互能力。该模型采用混合专家(MoE)架构,是增强推理的思维版。
mradermacher
Lamapi/next-12b 是一个基于12B参数的大语言模型,通过多语言数据集进行微调,支持50多种语言,具备高效文本生成能力,适用于化学、代码、生物、金融、法律等多个领域的自然语言处理任务。
这是Qwen3-Next-80B-A3B-Instruct模型的MLX格式转换版本,专为在Apple Silicon设备上高效运行而优化。该模型是一个800亿参数的大型语言模型,支持文本生成任务,具有强大的对话和推理能力。
EpistemeAI
metatune-gpt20b是一个具有自改进能力的大语言模型原型,能够为自身生成新数据、评估自身性能,并根据改进指标调整超参数。该模型在博士后水平的科学和数学理解方面表现出色,同时也可用于编码任务。
本项目是对Qwen3-VL-235B-A22B-Thinking模型进行MXFP4_MOE量化处理,旨在提供更高效的图像文本到文本转换能力。该版本来自unloth,已将上下文大小从256k扩展到1M,通过特定的量化技术优化模型在不同场景下的性能表现。
Nanbeige
Nanbeige4-3B-Thinking是第四代Nanbeige大语言模型家族中的30亿参数推理模型,通过提升数据质量和训练方法实现了先进的推理能力。该模型在数学、科学、创意写作、工具使用等多个领域表现出色,支持多阶段课程学习和强化学习训练。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过集成Wireshark工具实现数据捕获、威胁检测和网络诊断。
WireMCP是一个为大型语言模型(LLM)提供实时网络流量分析能力的MCP服务器,通过Wireshark工具捕获和处理网络数据,支持威胁检测、网络诊断和异常分析。
这是一个基于MCP协议的代码执行服务器原型,结合大型语言模型的代码生成能力和MCP工具集成,使AI代理能够在隔离沙箱中运行Python代码并调用外部工具。
腾讯云COS MCP Server是一个基于MCP协议的服务,无需编码即可让大模型快速接入腾讯云存储(COS)和数据万象(CI)能力,提供文件上传下载、图片处理、视频截帧等云端存储与处理功能。
FastApply MCP Server是一个企业级代码智能平台,通过本地AI模型、AST语义搜索、安全扫描和智能模式识别,提供全面的代码分析、搜索和重构能力,支持多语言开发和大规模代码库处理。
JIRA MCP服务器是一个为大型语言模型提供与JIRA交互能力的中间件服务,支持JQL搜索和问题详情获取。
一个基于模型上下文协议(MCP)的服务器,通过构建代码知识图谱为大型语言模型提供TypeScript代码库的深度上下文理解。它使用AST分析解析代码,在Neo4j中构建全面的图表示,并通过语义搜索和图遍历提供智能查询能力。
MCP逻辑求解器是一个结合大型语言模型与形式化定理证明能力的强大推理系统,支持自然语言和一阶逻辑输入,通过Prover9/Mace4进行自动验证,并提供结构化推理和解释。
HAL是一个为大型语言模型提供HTTP API能力的MCP服务器,支持通过安全接口进行网络请求和OpenAPI规范自动生成工具。
MCP字符工具是一个为大型语言模型提供字符级文本分析能力的服务器,解决LLM因分词而难以处理单个字符的问题,提供14+种字符计数、拼写分析和文本比较工具。
一个结合Ollama大模型能力和PostgreSQL数据库访问的交互式聊天助手,支持自然语言查询数据库并生成SQL查询。
MCP Tools是一个实现Model Context Protocol(MCP)的服务器项目,为Claude Desktop等LLM客户端提供文件系统和命令执行工具,扩展了大型语言模型的本地系统交互能力。
Astra DB MCP服务器是一个为大型语言模型(LLM)提供与Astra数据库交互能力的服务,扩展了LLM作为代理与外部系统交互的功能。
该项目集成Graphistry的GPU加速图可视化平台与模型控制协议(MCP),为AI助手和大型语言模型提供先进的图分析能力,支持多种数据格式和网络分析功能。
Heroku平台MCP服务器是一个专为大型语言模型设计的服务,提供与Heroku平台资源的交互能力。
Rememberizer的MCP服务器,为大型语言模型提供文档和知识管理API交互能力
MCP Solver是一个通过模型上下文协议(MCP)将SAT、SMT和约束求解能力暴露给大型语言模型的服务器。
ChatData MCP服务器是一个基于Model Control Protocol的框架,提供工具集、提示系统和资源管理,用于增强大型语言模型的能力。
KIP是一个专为大语言模型设计的图交互协议,连接LLM与知识图谱,提供记忆持久化、知识演化和可解释交互能力。
维尔纽斯公共交通MCP服务器项目,通过MCP协议为大型语言模型提供实时交通数据访问能力。