阿里巴巴AI编程工具Qoder本周起原生支持JetBrains系列IDE,包括IntelliJ、PyCharm等。新增Agent Mode自动选择AI模型提升编码效率,Inline Chat提供实时AI对话功能,强化开发辅助体验。
百度网盘核心API全面兼容MCP协议,大幅简化开发者接入流程,降低开发门槛,提升文件上传、管理和检索效率。此举将推动云存储行业创新,促进数据资源高效利用。
OpenAI推出基于GPT-5的智能安全助手Aardvark,帮助开发者和安全团队高效应对每年数万新漏洞的挑战。该工具通过持续分析源代码,自动识别漏洞、评估风险、优先排序并提供修复方案,显著提升软件安全防护效率。
前OpenAI首席技术官Mira Murati领导的团队推出“在线策略蒸馏”技术,仅用80亿参数的小模型即可达到32B大模型70%的性能,训练成本降低90%,效率提升50-100倍,让中小企业和个人开发者能以低成本获得高性能模型。
专业开发者 AI 编程助手,提升编程效率。
全球最强的编程和推理模型,提升开发效率。
windsurf_ai推出首个针对软件工程流程优化的模型家族 SWE-1。
一款基于 AI 的智能编程辅助工具。
anthropic
$108
输入tokens/百万
$540
输出tokens/百万
200k
上下文长度
mistral
-
256k
ByteDance
Ouro-1.4B是由字节跳动开发的具有14亿参数的循环语言模型,通过迭代共享权重计算实现了卓越的参数效率,仅用14亿参数就达到了30-40亿标准Transformer模型的性能水平。
thenexthub
OpenModel-1T-A50B-Instruct是NeXTHub开发的万亿参数混合专家模型,结合进化思维链训练方法,在推理能力和能源效率上取得平衡,具备深度推理能力和128K长上下文处理能力。
ubergarm2
这是inclusionAI/Ling-1T模型的量化版本集合,基于ik_llama.cpp分支开发,提供多种量化方案以适应不同的内存和性能需求。这些量化模型在给定的内存占用下提供出色的困惑度表现,特别优化了MoE架构的推理效率。
lmstudio-community
Qwen3-VL-8B-Instruct是由Qwen团队开发的多模态视觉语言模型,支持图像文本到文本转换。该版本经过MLX 8位量化处理,专门针对苹果硅芯片进行优化,在保持性能的同时提升运行效率。
ibm-granite
Granite 4.0 H-Small (FP8) 是IBM开发的Granite系列语言模型的小型FP8量化版本,专为提供专业、准确和安全的回复而设计。该模型采用FP8精度格式,在保持性能的同时优化了推理效率。
deepseek-ai
变换器库是一个强大的自然语言处理工具库,提供丰富的预训练模型和便捷的使用接口,广泛应用于文本生成、分类、翻译等NLP任务,极大提升开发效率。
Mungert
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署而设计,在质量、速度和内存效率方面树立了新标准。该模型采用创新的混合Liquid架构,具有乘法门和短卷积,支持多语言处理。
cpatonn
Qwen3-Next-80B-A3B-Instruct是通义千问团队开发的高效稀疏混合专家模型,总参数量80B,激活参数量仅3B。该模型采用创新的混合注意力机制和极低激活率的MoE架构,在保持强大性能的同时大幅提升推理效率,原生支持262K上下文长度并可扩展至1M令牌。
LiquidAI
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署设计。该模型在质量、速度和内存效率方面树立了新标准,特别适合在资源受限的环境中运行。
Kwai-Klear
Klear是由快手Kwai-Klear团队开发的稀疏混合专家(MoE)大语言模型,具备高性能和推理效率的特点。总参数460亿,激活参数仅25亿,在多个能力基准测试中表现出色,为实际应用提供了高效且强大的解决方案。
bartowski
这是由NVIDIA开发的Llama-3_3-Nemotron-Super-49B-v1_5模型的量化版本,采用llama.cpp的imatrix量化技术,在保证性能的同时显著减少模型存储空间和计算资源需求,提升运行效率。
Lucy模型是Menlo公司开发的大语言模型,经过量化处理后能在保证性能的同时减少资源需求,提升运行效率。
NoemaResearch
Nous-V1 8B是由Apexion AI开发的80亿参数语言模型,基于Qwen3-8B架构构建。该模型专为处理各种自然语言处理任务而设计,在对话式AI、知识推理、代码生成和内容创作等方面表现出色,在模型能力和实际部署效率之间取得了良好平衡。
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署而设计,在质量、速度和内存效率方面树立了新标准。
LFM2是由Liquid AI开发的新一代混合模型,专为边缘AI和设备端部署设计,在质量、速度和内存效率方面树立了新标准。
unsloth
LFM2 是由 Liquid AI 开发的新一代混合模型,专为边缘 AI 和设备端部署设计,在质量、速度和内存效率方面树立了新标准。
LFM2-350M是由Liquid AI开发的第二代混合模型,专为边缘AI和设备端部署设计。该模型在质量、速度和内存效率方面树立了新标准,具有3.5亿参数,支持多种语言,适用于边缘计算场景。
LFM2-700M 是由 Liquid AI 开发的新一代混合模型,专为边缘 AI 和设备端部署设计,在质量、速度和内存效率方面树立了新标准。
Deebo是一个AI调试助手,能够加速代码错误的解决过程,通过自动化调查和多线程工作流提升开发效率。
Aider MCP Server是一个实验性模型上下文协议服务器,用于将AI编码任务卸载到Aider,提高开发效率和灵活性。
MCP Server是一个简化Model Context Protocol(MCP)API交互的服务器工具,帮助开发者快速创建基于MCP的服务端应用。
该项目提供了一套开发工具集,包含AI辅助模板和实用脚本,用于提升开发效率和项目管理规范性。
一个防止AI幻觉的MCP服务,当AI不确定时可以向人类提问而非盲目自信,通过简单的问答机制提升开发效率。
Cursor Rust Tools是一个MCP服务器,为Cursor中的LLM提供Rust Analyzer、Crate文档和Cargo命令的访问能力,提升AI代理在Rust开发中的效率。
VibeCheck Web测试工具是一个AI驱动的网页测试代理,通过MCP协议集成到AI编程助手(如GitHub Copilot、Cursor等)中,实现自动化测试录制、执行和发现。它利用Playwright控制浏览器,支持自然语言描述生成测试脚本,执行回归测试,并自动发现潜在测试步骤,提高开发效率和测试准确性。
飞书MCP服务器为AI编码工具提供飞书文档访问能力,支持文档创建、内容操作与编辑,提升开发效率。
CTX是一款连接代码库与大型语言模型(LLM)的工具,通过自动化生成结构化上下文文件,解决AI开发中代码上下文传递效率低下的问题。支持从代码文件、Git仓库、网页等多种来源收集信息,并可通过MCP服务器直接为AI助手提供项目上下文。
这是一个专为Local by Flywheel设计的MCP服务器,让AI助手能够直接读取WordPress数据库,自动检测MySQL实例并执行只读查询,极大提升开发效率。
一个CLI工具,用于快速创建并部署基于Cloudflare Workers的Model Control Protocol (MCP)服务器,方便为Cursor Agent开发工具。
MCP Context Template是一个集中管理AI工具上下文的仓库,旨在降低上下文共享成本并提升开发效率,为团队提供统一的AI协作标准和文档结构。
该项目是Cursor AI集成开发环境的资源中心,包含提升开发效率的规则、协议服务和工具集合,支持自定义AI行为和项目规范。
Laravel开发辅助工具包,专为Cursor IDE设计,提升开发效率
Jira Context MCP是一个集成Jira与Cursor IDE的模型上下文协议实现,允许开发者通过AI助手直接获取Jira工单信息、过滤问题类型并自动修复问题,提升开发效率。
GarenCode Design是一个AI驱动的智能组件设计平台,通过MCP框架实现从需求分析到代码生成的全流程自动化,支持多种AI模型和私有组件库,显著提升前端开发效率。
DevContext是一个强大的AI开发上下文系统,为开发者提供项目中心化的持续上下文感知能力,包含短期/长期/情景/语义四种记忆类型,支持代码结构分析和向量搜索,显著提升开发效率。
Warden Magento MCP服务器是一个为Warden和Magento 2开发环境提供AI助手集成的服务,支持项目管理、数据库操作、PHP开发、Magento CLI命令执行等功能,提升开发效率。
Claude Command Runner是一个连接Claude桌面应用与终端工具的MCP服务器,支持智能命令执行、自动输出捕获和全面的v3.0功能,提升开发效率。
MeshSeeks是一个基于多代理并行处理技术的AI任务解决平台,通过创建专业化的AI代理网络,实现复杂编码问题的快速分解与协同解决。项目提供4倍上下文容量、实时状态面板和智能任务协调功能,显著提升开发效率(基准测试显示速度提升3.64倍)。