月之暗面推出最强编程模型Kimi K2.5,已接入Kimi Code平台。该模型在视觉理解、复杂代码逻辑和Agent集群能力上实现突破,为开发者提供更精准的AI编程体验。官方同步推出限时福利和计费调整,以庆祝这一技术跨越。
谷歌下一代AI模型Gemini 3.5遭泄露,代号Snow Bunny的内部测试版展现出强大工程能力,可一次性构建完整应用程序,支持单次提示生成多达3000行可运行代码。谷歌还准备了多个专项模型,如专攻特定领域的Fierce Falcon,显示其在编程领域的重大突破。
Allen AI推出开源编程智能体SERA系列,旨在降低AI编程应用门槛,最低训练成本仅400美元。其最强模型SERA-32B在SWE-Bench测试中解决54.2%问题,性能超越同类开源模型,部分指标接近行业领先水平。
欧洲AI公司Mistral AI发布编程助手Mistral Vibe 2.0,由新模型Devstral2驱动。核心升级是引入多代理编排功能,支持通过自然语言同时操作多个文件,并利用整个代码库的上下文进行开发,显著提升了编程体验和效率。
完全免费的 AI 代码助手,使用最佳 AI 模型。
Relace为AI代码生成提供模型和基础设施,助力自主代码生成。
全球最强的编程和推理模型,提升开发效率。
GPT-4.1 是一款在编程、指令跟随和长文本理解方面有显著提升的模型。
Openai
$2.8
Input tokens/M
$11.2
Output tokens/M
1k
Context Length
Google
$0.49
$2.1
Xai
$1.4
$3.5
2k
$7.7
$30.8
200
-
Anthropic
$105
$525
$0.7
$7
$35
$17.5
$21
Alibaba
$4
$16
$1
$10
256
$6
$24
$2
$20
Baidu
128
EssentialAI
Rnj-1-instruct 是由 Essential AI 从头开始训练的 80 亿参数开放权重密集模型,针对代码、STEM 领域、智能体能力和工具调用进行了优化。它在多种编程语言中表现出色,同时在数学和科学领域也展现出强大实力,能力与最先进的开放权重模型相当。
DavidAU
本模型是基于Qwen3-Coder-30B-A3B-Instruct混合专家模型,通过Brainstorm 20x技术进行深度微调生成的GGUF格式模型。它专为编程和通用目的设计,支持256K长上下文,并针对主流及小众编程语言的代码生成和理解进行了优化。
Rnj-1 是由 Essential AI 从头训练的一系列 80 亿参数、开放权重的密集模型。该模型针对代码和 STEM 领域进行了优化,在编程、数学推理、智能体任务和工具调用方面表现出色,能力与最先进的开放权重模型相当。
geoffmunn
这是Qwen/Qwen3-Coder-30B-A3B-Instruct语言模型的GGUF量化版本,专门针对代码生成和编程任务优化,采用FP32精度转换,适用于本地推理部署。
noctrex
本项目是对Qwen3-Coder-30B-A3B-Instruct模型进行MXFP4_MOE量化的成果,将上下文大小从256k扩展到1M,为代码生成和编程任务提供了更优化的模型版本,具有提升性能和节省资源的价值。
unsloth
JanusCoder-14B 是基于 Qwen3-14B 构建的 14B 参数开源基础模型,旨在为代码智能建立统一的视觉编程接口。该模型在 JANUSCODE-800K 多模态代码语料库上训练,能够统一处理各种视觉编程任务。
JanusCoder-8B是基于Qwen3-8B构建的开源代码智能基础模型,旨在建立统一的视觉编程接口。该模型在JANUSCODE-800K(迄今为止最大的多模态代码语料库)上训练,能够处理各种视觉编程任务,包括数据可视化、交互式Web UI和代码驱动动画等。
这是一个基于Qwen3-Coder-30B-A3B-Instruct的混合专家模型,拥有540亿参数和100万上下文长度。模型通过三步合并和Brainstorm 40X优化,具备强大的编程能力和通用场景处理能力,特别集成了思考模块,能够在回答前进行深度推理。
JetBrains
Mellum-4b-dpo-all是JetBrains开发的专为代码生成和理解设计的40亿参数大语言模型。经过预训练、SFT和直接偏好优化(DPO)三阶段训练,能够生成高质量、可读性强的代码,支持多种编程语言。
这是Qwen/Qwen3-Coder-30B-A3B-Instruct语言模型的GGUF量化版本,专为本地推理优化,支持llama.cpp、LM Studio、OpenWebUI、GPT4All等框架。该模型是一个30B参数规模的代码生成和编程助手模型。
这是Qwen3-Coder-30B-A3B-Instruct语言模型的GGUF量化版本,专门针对代码生成和编程任务优化,支持多种量化级别以适应不同硬件需求。
FukayaTakashi
Qwen3-Reranker-8B是Qwen家族的最新文本重排序模型,具有80亿参数,专为文本检索和排序任务设计。该模型在多语言文本重排序任务中表现出色,支持100多种语言,包括各种编程语言,在MTEB多语言排行榜上取得了领先性能。
facebook
MobileLLM-R1是Meta发布的高效推理模型系列,包含140M、360M和950M三种规模。该模型专门针对数学、编程和科学问题进行优化,在参数规模较小的情况下实现了与大规模模型相当甚至更优的性能。
MobileLLM-R1是Meta发布的高效推理语言模型系列,专注于数学、编程和科学问题解决。该模型在参数规模较小的情况下仍能取得优异性能,提供完整的训练配方和数据源支持复现研究。
MobileLLM-R1是Facebook推出的高效推理模型系列,专注于数学、编程和科学问题解决。该模型在仅使用约2T高质量标记进行预训练的情况下,在多项基准测试中取得了优异性能。
MobileLLM-R1是Meta推出的高效推理模型系列,专注于解决数学、编程和科学问题。该模型提供140M、360M和950M三个规模版本,具有出色的推理能力和可复现性。
QuantFactory
Instinct是基于Qwen2.5-Coder-7B的代码编辑模型,经过真实世界代码编辑数据集微调,能够智能预测开发者的下一步操作,保持流畅编程状态。该GGUF量化版本由QuantFactory创建,提供高效的本地推理能力。
GetSoloTech
这是Qwen3-Code-Reasoning-4B模型的GGUF量化版本,专门针对竞赛编程和代码推理任务进行了优化。该模型在高质量的代码推理数据集上训练,增强了通过详细推理解决复杂编程问题的能力。
这是GPT-OSS-Code-Reasoning-20B模型的GGUF量化版本,针对高效推理进行了优化,降低了内存需求。该模型专门针对竞赛编程和算法推理任务进行了有监督微调,能够生成Python/C++解决方案和推理过程。
jinaai
Jina Code Embeddings 是一款专为代码检索设计的嵌入模型,基于Qwen2.5-Coder-0.5B构建,支持15种以上编程语言,适用于文本到代码、代码到代码、代码到文本、代码到补全等多种代码检索任务以及技术问答。
Claude Context是一个MCP插件,通过语义代码搜索为AI编程助手提供整个代码库的深度上下文,支持多种嵌入模型和向量数据库,实现高效代码检索。
Apple Doc MCP是一个提供直接访问苹果开发者文档的模型上下文协议服务器,集成到AI编程助手中,支持智能搜索、框架浏览和详细文档获取。
DaVinci Resolve MCP Server是一个连接AI编程助手(如Cursor、Claude Desktop)与DaVinci Resolve的模型上下文协议服务器,支持通过自然语言查询和控制DaVinci Resolve。
Linear MCP Server是一个自定义实现的模型上下文协议服务器,提供与Linear API交互的工具,使AI代理能够通过Linear平台以编程方式管理问题、项目和团队。
Logseq MCP Server是一个模型上下文协议服务器,提供与Logseq知识库的直接集成,使LLM能够以编程方式与Logseq图谱交互。
一个基于Rust的高性能MCP服务器,封装Factory.ai Droid CLI工具,为Claude Code等MCP客户端提供AI辅助编程能力,支持完整的Droid参数映射、会话管理、自定义模型和细粒度权限控制。
一个基于模型上下文协议(MCP)的服务器,提供系统性思维、心智模型和调试方法,增强问题解决能力,包含多种思维框架和编程范式工具。
Colab MCP是一个模型上下文协议服务器,让Claude Code、Cursor、Codex等AI编程助手能够共享日志和会话历史,解决在不同AI工具间切换时丢失上下文的问题。
Sandbox Fusion MCP服务器是一个为大型语言模型提供代码解释器功能的实现,支持多种编程语言的代码执行和Jupyter笔记本操作,通过stdio交互与客户端通信。
MCP DAP服务器是一个基于模型上下文协议(MCP)的调试适配器协议(DAP)服务器,为AI助手和其他MCP客户端提供与多种编程语言调试器交互的能力,支持断点设置、程序控制、状态检查等调试功能。
Lucidity是一个模型上下文协议(MCP)服务器,旨在通过智能提示分析提升AI生成代码的质量。它提供结构化指导,帮助识别和解决代码质量问题,支持多种编程语言,并能与AI助手无缝集成。
Jij MCP服务器是一个提供数学优化和量子计算支持的工具平台,集成了JijModeling建模工具和Qiskit量子编程框架,提供代码检查、模型创建、版本迁移指南等功能。
Re-Stack MCP Server是一个连接Stack Overflow和LLM的模型通信协议服务器,旨在通过实时访问Stack Overflow内容来增强LLM的编程辅助能力,并修复知识反馈循环。
FedRAMP 20x MCP服务器是一个基于模型上下文协议的工具,提供对FedRAMP 20x安全要求和控制的访问,特别关注Azure优先指导。它加载官方FedRAMP文档数据,提供查询、代码分析、自动化证据收集和合规性验证等功能,支持多种编程语言和基础设施即代码,帮助团队实现FedRAMP合规。
一个提供Google搜索和网页内容分析功能的MCP服务器,支持AI模型通过编程方式执行搜索和分析任务。
MCP Flux Studio是一个强大的模型上下文协议服务器,将Flux的高级图像生成功能集成到AI编程助手中,支持Cursor和Windsurf IDE。
F2C MCP服务器是一个模型上下文协议服务,可将Figma设计数据转换为HTML/CSS代码,为AI编程助手提供设计上下文支持。
Whimsical MCP Server是一个基于模型上下文协议(MCP)的服务,允许通过编程方式创建Whimsical图表。该服务与Whimsical API集成,可将Mermaid标记转换为图表,并返回图表URL和base64编码图像。
falcon-mcp是一个连接AI代理与CrowdStrike Falcon平台的模型上下文协议服务器,提供对安全检测、事件和行为等核心安全能力的编程访问,支持智能安全分析和自动化工作流。
该项目是一个Model Context Protocol (MCP)适配器,用于连接大型语言模型(LLM)与Lisp开发环境,支持通过轻量级Lisply协议进行交互。主要功能包括Lisp代码评估、HTTP请求和调试支持,适用于AI辅助符号编程、CAD设计自动化等场景。