腾讯发布混元2.0大模型,含推理增强版和指令遵循版,总参数406B,支持256K上下文窗口,在数学、代码等复杂推理任务上表现突出。模型采用MoE架构,已上线腾讯云API并在部分应用灰度测试。
OpenAI发布GPT-5.1-Codex-Max,专为复杂软件工程优化,支持数十万行代码上下文生成。新增动态压缩机制,自动整理记忆保留关键状态,减少长会话信息丢失。SWE-bench准确率升至77.9%,工程师任务达79.9%,令牌消耗降12%。不安全内容检测评分提升至0.920。
MiroMind开源bAgent模型MiroThinker v1.0,具备256K上下文窗口和单次600次工具调用能力。创新提出“深度交互Scaling”框架,通过高频环境交互与实时反馈替代传统参数堆叠,实现智能体自我进化。模型集成搜索、Linux沙箱、代码执行等工具链,可在数小时内自主完成复杂任务,如官方示例中通过600轮调用处理食谱和计算热量。
谷歌在Chrome浏览器测试"上下文任务"新功能,旨在通过AI理解用户意图并自主操作,提升在线购物等复杂任务的效率和便捷性,推动"智能体浏览"体验发展。
支持100万Token上下文的开源Qwen模型,适用于长序列处理任务
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
Anthropic
$105
$525
200
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$2
$20
-
$6
$24
256
Bytedance
$0.8
Moonshot
$0.15
$1.5
Baidu
32
$10.5
Tencent
$1
$8
DavidAU
基于Qwen 3微调的12B参数大语言模型,具备256k超长上下文处理能力,专门针对长文本生成任务进行优化。该模型结合了VLTO 8B模型基础、Brainstorm 20x调优和NEO Imatrix数据集量化技术,能够生成高质量的长文本内容。
moonshotai
Kimi Linear是一种高效混合线性注意力架构,在短上下文、长上下文和强化学习场景中均优于传统全注意力方法。它通过Kimi Delta Attention (KDA)机制优化注意力计算,显著提升性能和硬件效率,特别擅长处理长达100万令牌的长上下文任务。
ExaltedSlayer
Gemma 3 27B IT QAT的MLX MXFP4量化版本,是由Google开发的轻量级开源多模态模型。该模型能够同时处理文本和图像输入并生成文本输出,拥有128K大上下文窗口,支持超过140种语言,适用于多种文本生成和图像理解任务。
cyankiwi
GLM-4.6 AWQ - INT4是GLM-4.6模型的4位量化版本,采用AWQ量化方法,在保持模型性能的同时显著减少了存储和计算资源需求。该模型支持200K上下文长度,在编码、推理和智能体任务方面相比GLM-4.5有显著提升。
noctrex
这是Qwen3-VL-235B-A22B-Thinking模型的MXFP4_MOE量化版本,专门用于图像文本到文本的转换任务。该模型基于unsloth扩展的1M上下文版本进行量化,保持了强大的多模态理解能力。
Clemylia
Tesity-T5是由Clemylia开发的编码器-解码器类型语言模型,专注于带上下文的问答任务。该模型能够根据提供的文本上下文,精准提炼并合成答案,具有事实性和综合性的回答能力。
Minibase
这是一个紧凑的西班牙语到英语翻译模型,针对准确性和效率进行了优化。模型大小为386MB,支持4096个令牌的上下文长度,能够高效精准地完成翻译任务,平均响应时间约245ms。
unsloth
GLM-4.6是智谱AI开发的新一代大语言模型,相比GLM-4.5在上下文处理、编码能力和推理性能方面有显著提升。该模型支持200K上下文长度,在多个公开基准测试中表现出色,特别在代码生成、推理和代理任务方面具有竞争优势。
zai-org
GLM-4.6-FP8是智谱AI推出的新一代文本生成模型,相比GLM-4.5在多个关键方面有显著改进。该模型具有更长的上下文窗口、卓越的编码性能、高级推理能力和更强大的智能体功能,能够处理更复杂的任务。
zenlm
zen-agent-4b是一款具有40亿参数的工具调用智能体,支持模型上下文协议(MCP),为文本生成任务提供强大助力。该模型由Zen Research DAO开发,隶属于Zoo Labs Inc非营利组织。
Salesforce
CoDA是Salesforce AI Research研发的基于扩散模型的代码生成语言模型,具备双向上下文理解能力,专为强大的代码生成和补全任务而设计。该模型仅17亿参数,在保持低计算要求的同时实现了卓越的代码生成性能。
QuantFactory
MachineLearningLM-7B-v1是基于Qwen/Qwen2.5-7B-Instruct在数百万合成表格机器学习任务上持续预训练的大语言模型,专门针对表格分类任务优化,支持8到1024个示例的少样本上下文学习。
owao
这是基于 driaforall/mem-agent 模型转换的 GGUF 量化版本,采用 Q4_K_M 量化级别。该模型专注于记忆代理功能,能够处理和回忆大量上下文信息,适用于需要长期记忆能力的对话和任务处理场景。
cpatonn
Qwen3-Next-80B-A3B-Thinking-AWQ-4bit是基于Qwen3-Next-80B-A3B-Thinking模型通过AWQ量化技术生成的4位版本,显著提升了模型推理效率。该模型采用混合注意力机制和高稀疏MoE架构,在复杂推理任务中表现出色,支持长达262K标记的上下文长度。
anikifoss
这是对Moonshot AI的Kimi-K2-Instruct-0905模型的高质量量化版本,采用HQ4_K量化方法,专门优化了推理性能,支持75000上下文长度,适用于文本生成任务。
bartowski
这是NVIDIA Nemotron-H-47B-Reasoning-128K模型的量化版本,使用llama.cpp的imatrix技术进行优化。该模型支持128K上下文长度,专为推理任务设计,提供了从BF16到极低比特率的多种量化选项,适合不同硬件配置和性能需求。
这是NVIDIA Nemotron-H-8B-Reasoning-128K模型的Llamacpp imatrix量化版本,提供多种量化类型的模型文件,以满足不同硬件和性能需求。支持128K上下文长度,专为推理任务优化。
QuantTrio
DeepSeek-V3.1是基于DeepSeek-V3.1-Base进行后训练的大型语言模型,具有128K上下文长度,支持混合思维模式、智能工具调用和代码代理功能。该模型在多项基准测试中表现出色,特别在数学推理、代码生成和搜索代理任务上有显著提升。
Kwai-Keye
快手Keye-VL是由快手Keye团队打造的前沿多模态大语言模型,在视频理解、视觉感知和推理任务中表现卓越。1.5版本通过创新的快慢视频编码策略、LongCoT冷启动数据管道和强化学习训练策略,在视频理解、图像感知和推理能力上达到新高度,支持长达128k标记的扩展上下文长度。
prithivMLmods
Gemma 3 270M是谷歌推出的轻量级多模态模型,基于与Gemini系列相同的研究技术,支持文本和图像输入,具有32K上下文窗口,在问答、总结、图像理解和代码生成等任务上提供高质量输出。
Zen MCP是一个多模型AI协作开发服务器,为Claude和Gemini CLI等AI编码助手提供增强的工作流工具和跨模型上下文管理。它支持多种AI模型的无缝协作,实现代码审查、调试、重构等开发任务,并能保持对话上下文在不同工作流间的延续。
一个基于模型上下文协议(MCP)的软件开发规划工具,提供任务分解、进度跟踪和开发计划管理功能,帮助团队高效规划软件开发项目。
ClickUp MCP Server是一个用于将ClickUp任务与AI应用集成的模型上下文协议服务器,支持通过标准化协议管理任务、空间、列表和文件夹。
Aider MCP Server是一个实验性模型上下文协议服务器,用于将AI编码任务卸载到Aider,提高开发效率和灵活性。
ClickUp MCP服务器是一个用于将ClickUp任务与AI应用集成的模型上下文协议服务器,支持通过标准化协议管理任务、空间、列表、文件夹等,并提供时间跟踪、标签管理等功能。
Kubernetes MCP服务器是一个强大的Kubernetes模型上下文协议实现,支持Kubernetes和OpenShift集群操作,无需依赖外部工具即可执行各种资源管理任务。
Ultimate MCP Server是一个基于模型上下文协议(MCP)的AI代理操作系统,提供数十种强大工具能力,包括智能任务委派、文档处理、浏览器自动化、Excel操作等,通过标准化MCP工具实现AI代理的认知增强和复杂任务编排。
Godspeed MCP是一个用于连接Godspeed任务管理API的模型上下文协议工具,支持任务和列表的全面管理。
Speelka Agent是一个基于模型上下文协议(MCP)的通用LLM代理,能够调用其他MCP服务器的工具,实现复杂任务分解、多模型协作和工具编排。
LLMling是一个Python库,提供配置化的LLM任务处理框架,支持多种上下文处理器和LLM提供商集成。
Dart MCP Server是一个基于Dart的模型上下文协议(MCP)服务器实现,提供任务管理、文档处理和空间组织功能,支持与AI助手集成。
一个基于TypeScript的MCP服务器,实现LLM查询系统,支持任务委派和上下文窗口卸载。
Yellhorn MCP是一个模型上下文协议服务器,通过集成Gemini和OpenAI能力为代码助手提供全代码库上下文支持,实现开发任务规划、代码评审和隔离环境创建。
一个与AI代码编辑器集成的MCP服务器,通过Gemini 2.5的百万token上下文窗口和任务管理功能,优化Cursor的代理能力。
Kanboard MCP服务器是一个基于Go语言开发的模型上下文协议服务器,实现AI助手与Kanboard项目管理系统的无缝集成,支持通过自然语言命令管理项目、任务、用户和工作流。
Divide and Conquer MCP Server是一个基于JSON结构的任务管理服务器,专为AI代理设计,用于分解复杂任务、跟踪进度并保持上下文。
一个基于模型上下文协议(MCP)的文档管理系统,提供资源模板、文档处理、任务管理和集成测试等功能。
Screeny MCP Server是一个专为macOS设计的隐私优先截图服务,允许AI代理安全捕获预先批准的应用程序窗口截图,为开发和调试任务提供视觉上下文。
Godspeed MCP是一个用于连接Godspeed任务管理API的模型上下文协议工具,支持任务和列表的创建、查询、更新等操作。
一个为Taskfile/go-task设计的模型上下文协议(MCP)服务器,支持通过AI代理运行开发任务。