Anthropic正在测试Claude的“任务模式”,旨在将其打造成全能型智能体,以高效处理复杂任务。新版本采用双面板布局:右侧展示文件或上下文信息,左侧动态显示多步任务进度。
GPT‑5.2-Codex正式发布,成为智能编码领域里程碑。该模型基于GPT‑5.2架构深度优化,融合GPT-5.1-Codex-Max终端操作专长,旨在解决复杂软件工程与网络安全难题。其核心突破在于长程任务执行能力,通过原生上下文压缩技术,显著提升处理大规模代码的效率和准确性。
腾讯发布混元2.0大模型,含推理增强版和指令遵循版,总参数406B,支持256K上下文窗口,在数学、代码等复杂推理任务上表现突出。模型采用MoE架构,已上线腾讯云API并在部分应用灰度测试。
OpenAI发布GPT-5.1-Codex-Max,专为复杂软件工程优化,支持数十万行代码上下文生成。新增动态压缩机制,自动整理记忆保留关键状态,减少长会话信息丢失。SWE-bench准确率升至77.9%,工程师任务达79.9%,令牌消耗降12%。不安全内容检测评分提升至0.920。
Dex将浏览器变为AI工作空间,了解任务与上下文,推动工作进展
支持100万Token上下文的开源Qwen模型,适用于长序列处理任务
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
Anthropic
$105
$525
200
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$2
$20
-
$6
$24
256
Bytedance
$0.8
Moonshot
$0.15
$1.5
Baidu
32
$10.5
$8
Tencent
$1
DavidAU
基于Qwen 3微调的12B参数大语言模型,具备256k超长上下文处理能力,专门针对长文本生成任务进行优化。该模型结合了VLTO 8B模型基础、Brainstorm 20x调优和NEO Imatrix数据集量化技术,能够生成高质量的长文本内容。
moonshotai
Kimi Linear是一种高效混合线性注意力架构,在短上下文、长上下文和强化学习场景中均优于传统全注意力方法。它通过Kimi Delta Attention (KDA)机制优化注意力计算,显著提升性能和硬件效率,特别擅长处理长达100万令牌的长上下文任务。
ExaltedSlayer
Gemma 3 27B IT QAT的MLX MXFP4量化版本,是由Google开发的轻量级开源多模态模型。该模型能够同时处理文本和图像输入并生成文本输出,拥有128K大上下文窗口,支持超过140种语言,适用于多种文本生成和图像理解任务。
cyankiwi
GLM-4.6 AWQ - INT4是GLM-4.6模型的4位量化版本,采用AWQ量化方法,在保持模型性能的同时显著减少了存储和计算资源需求。该模型支持200K上下文长度,在编码、推理和智能体任务方面相比GLM-4.5有显著提升。
noctrex
这是Qwen3-VL-235B-A22B-Thinking模型的MXFP4_MOE量化版本,专门用于图像文本到文本的转换任务。该模型基于unsloth扩展的1M上下文版本进行量化,保持了强大的多模态理解能力。
Clemylia
Tesity-T5是由Clemylia开发的编码器-解码器类型语言模型,专注于带上下文的问答任务。该模型能够根据提供的文本上下文,精准提炼并合成答案,具有事实性和综合性的回答能力。
Minibase
这是一个紧凑的西班牙语到英语翻译模型,针对准确性和效率进行了优化。模型大小为386MB,支持4096个令牌的上下文长度,能够高效精准地完成翻译任务,平均响应时间约245ms。
unsloth
GLM-4.6是智谱AI开发的新一代大语言模型,相比GLM-4.5在上下文处理、编码能力和推理性能方面有显著提升。该模型支持200K上下文长度,在多个公开基准测试中表现出色,特别在代码生成、推理和代理任务方面具有竞争优势。
zai-org
GLM-4.6-FP8是智谱AI推出的新一代文本生成模型,相比GLM-4.5在多个关键方面有显著改进。该模型具有更长的上下文窗口、卓越的编码性能、高级推理能力和更强大的智能体功能,能够处理更复杂的任务。
zenlm
zen-agent-4b是一款具有40亿参数的工具调用智能体,支持模型上下文协议(MCP),为文本生成任务提供强大助力。该模型由Zen Research DAO开发,隶属于Zoo Labs Inc非营利组织。
Salesforce
CoDA是Salesforce AI Research研发的基于扩散模型的代码生成语言模型,具备双向上下文理解能力,专为强大的代码生成和补全任务而设计。该模型仅17亿参数,在保持低计算要求的同时实现了卓越的代码生成性能。
QuantFactory
MachineLearningLM-7B-v1是基于Qwen/Qwen2.5-7B-Instruct在数百万合成表格机器学习任务上持续预训练的大语言模型,专门针对表格分类任务优化,支持8到1024个示例的少样本上下文学习。
owao
这是基于 driaforall/mem-agent 模型转换的 GGUF 量化版本,采用 Q4_K_M 量化级别。该模型专注于记忆代理功能,能够处理和回忆大量上下文信息,适用于需要长期记忆能力的对话和任务处理场景。
cpatonn
Qwen3-Next-80B-A3B-Thinking-AWQ-4bit是基于Qwen3-Next-80B-A3B-Thinking模型通过AWQ量化技术生成的4位版本,显著提升了模型推理效率。该模型采用混合注意力机制和高稀疏MoE架构,在复杂推理任务中表现出色,支持长达262K标记的上下文长度。
anikifoss
这是对Moonshot AI的Kimi-K2-Instruct-0905模型的高质量量化版本,采用HQ4_K量化方法,专门优化了推理性能,支持75000上下文长度,适用于文本生成任务。
bartowski
这是NVIDIA Nemotron-H-47B-Reasoning-128K模型的量化版本,使用llama.cpp的imatrix技术进行优化。该模型支持128K上下文长度,专为推理任务设计,提供了从BF16到极低比特率的多种量化选项,适合不同硬件配置和性能需求。
这是NVIDIA Nemotron-H-8B-Reasoning-128K模型的Llamacpp imatrix量化版本,提供多种量化类型的模型文件,以满足不同硬件和性能需求。支持128K上下文长度,专为推理任务优化。
QuantTrio
DeepSeek-V3.1是基于DeepSeek-V3.1-Base进行后训练的大型语言模型,具有128K上下文长度,支持混合思维模式、智能工具调用和代码代理功能。该模型在多项基准测试中表现出色,特别在数学推理、代码生成和搜索代理任务上有显著提升。
Kwai-Keye
快手Keye-VL是由快手Keye团队打造的前沿多模态大语言模型,在视频理解、视觉感知和推理任务中表现卓越。1.5版本通过创新的快慢视频编码策略、LongCoT冷启动数据管道和强化学习训练策略,在视频理解、图像感知和推理能力上达到新高度,支持长达128k标记的扩展上下文长度。
prithivMLmods
Gemma 3 270M是谷歌推出的轻量级多模态模型,基于与Gemini系列相同的研究技术,支持文本和图像输入,具有32K上下文窗口,在问答、总结、图像理解和代码生成等任务上提供高质量输出。
Zen MCP是一个多模型AI协作开发服务器,为Claude和Gemini CLI等AI编码助手提供增强的工作流工具和跨模型上下文管理。它支持多种AI模型的无缝协作,实现代码审查、调试、重构等开发任务,并能保持对话上下文在不同工作流间的延续。
一个基于模型上下文协议(MCP)的软件开发规划工具,提供任务分解、进度跟踪和开发计划管理功能,帮助团队高效规划软件开发项目。
ClickUp MCP Server是一个用于将ClickUp任务与AI应用集成的模型上下文协议服务器,支持通过标准化协议管理任务、空间、列表和文件夹。
Aider MCP Server是一个实验性模型上下文协议服务器,用于将AI编码任务卸载到Aider,提高开发效率和灵活性。
ClickUp MCP服务器是一个用于将ClickUp任务与AI应用集成的模型上下文协议服务器,支持通过标准化协议管理任务、空间、列表、文件夹等,并提供时间跟踪、标签管理等功能。
Kubernetes MCP服务器是一个强大的Kubernetes模型上下文协议实现,支持Kubernetes和OpenShift集群操作,无需依赖外部工具即可执行各种资源管理任务。
Godspeed MCP是一个用于连接Godspeed任务管理API的模型上下文协议工具,支持任务和列表的全面管理。
Ultimate MCP Server是一个基于模型上下文协议(MCP)的AI代理操作系统,提供数十种强大工具能力,包括智能任务委派、文档处理、浏览器自动化、Excel操作等,通过标准化MCP工具实现AI代理的认知增强和复杂任务编排。
一个基于TypeScript的MCP服务器,实现LLM查询系统,支持任务委派和上下文窗口卸载。
LLMling是一个Python库,提供配置化的LLM任务处理框架,支持多种上下文处理器和LLM提供商集成。
EspoCRM MCP服务器是一个全面的模型上下文协议服务器,提供与EspoCRM的无缝集成,支持47种工具进行完整的CRM操作,包括联系人、账户、机会、会议、用户、任务、线索管理以及团队、角色、实体关系等高级功能,并包含AI聊天机器人界面。
Speelka Agent是一个基于模型上下文协议(MCP)的通用LLM代理,能够调用其他MCP服务器的工具,实现复杂任务分解、多模型协作和工具编排。
Dart MCP Server是一个基于Dart的模型上下文协议(MCP)服务器实现,提供任务管理、文档处理和空间组织功能,支持与AI助手集成。
Webvizio MCP服务器是一个基于TypeScript的模型上下文协议服务器,提供对Webvizio API的安全结构化访问,可将网站反馈和错误报告自动转换为可执行的开发任务,供AI编码代理处理。
Yellhorn MCP是一个模型上下文协议服务器,通过集成Gemini和OpenAI能力为代码助手提供全代码库上下文支持,实现开发任务规划、代码评审和隔离环境创建。
一个与AI代码编辑器集成的MCP服务器,通过Gemini 2.5的百万token上下文窗口和任务管理功能,优化Cursor的代理能力。
Divide and Conquer MCP Server是一个基于JSON结构的任务管理服务器,专为AI代理设计,用于分解复杂任务、跟踪进度并保持上下文。
Screeny MCP Server是一个专为macOS设计的隐私优先截图服务,允许AI代理安全捕获预先批准的应用程序窗口截图,为开发和调试任务提供视觉上下文。
Kanboard MCP服务器是一个基于Go语言开发的模型上下文协议服务器,实现AI助手与Kanboard项目管理系统的无缝集成,支持通过自然语言命令管理项目、任务、用户和工作流。
一个基于模型上下文协议(MCP)的文档管理系统,提供资源模板、文档处理、任务管理和集成测试等功能。