集代码生成与执行于一体的开源系统
prithivMLmods
Qwen3代码推理是一个参数量为40亿的紧凑型模型,在nvidia/OpenCodeReasoning上进行了微调,专门为编码和逻辑推理任务而设计。该模型在代码生成和逻辑问答方面表现出色,支持超过10000个标记的上下文窗口。
quantized4all
OpenCodeReasoning-Nemotron-1.1-7B是基于Qwen2.5-7B-Instruct开发的70亿参数大型语言模型,专门针对代码生成和推理任务进行后训练优化。该模型支持64k标记的上下文长度,在竞争性编程任务中表现出色,在LiveCodeBench评估中达到55.5%的一次通过率。
Mungert
基于Qwen2.5-32B-Instruct的大语言模型,专为代码生成推理而进行了后训练,支持32K上下文长度,适用于商业和非商业用途。
OpenCodeReasoning-Nemotron-14B 是基于 Qwen2.5-14B-Instruct 进行后训练的大型语言模型,专为代码生成推理优化,支持32K tokens上下文长度。
OpenCodeReasoning-Nemotron-7B是基于Qwen2.5-7B-Instruct专门为代码生成推理而训练的大语言模型,支持32K token上下文长度,适用于商业和非商业用途。该模型在OpenCodeReasoning数据集上进行后续训练,专注于编程问题的推理和代码生成。
OpenCodeReasoning-Nemotron-32B 是基于 Qwen2.5-32B-Instruct 的代码生成推理模型,支持32K tokens上下文长度,适用于商业和非商业用途。
bartowski
这是NVIDIA OpenCodeReasoning-Nemotron-32B-IOI模型的量化版本,使用llama.cpp进行量化处理,适用于代码推理任务。
这是NVIDIA OpenCodeReasoning-Nemotron-14B模型的Llamacpp imatrix量化版本,适用于代码推理任务。
nvidia
OpenCodeReasoning-Nemotron-32B-IOI 是一个基于 Qwen2.5-32B-Instruct 的大型语言模型,专门针对代码生成任务进行了推理后训练,支持 32K token 的上下文长度。
OpenCodeReasoning-Nemotron-32B 是一个基于 Qwen2.5-32B-Instruct 的大型语言模型,专门针对代码生成推理能力进行训练,支持 32K token 的上下文长度,可自由用于商业/非商业用途。
OpenCodeReasoning-Nemotron-14B 是一个专为代码生成推理而进行后训练的大型语言模型,支持32K令牌的上下文长度。
OpenCodeReasoning-Nemotron-7B 是基于 Qwen2.5-7B-Instruct 开发的大型语言模型,专注于代码生成和推理任务,支持 32K tokens 的上下文长度。
LoneStriker
OpenCodeInterpreter是一套开源代码生成系统,通过整合代码执行与迭代优化功能提升代码生成能力
这是一个为个人使用设计的Synthetic Search API的MCP服务器,通过配置OpenCode实现本地运行,提供网络搜索功能。
Sugar是一个为AI编程代理设计的自主执行层,提供任务队列管理、24/7持续运行和持久化记忆系统,支持与Claude Code、OpenCode等主流AI编码工具集成。
Moonbridge是一个MCP服务器,允许从Claude Code、Cursor等MCP客户端并行生成多个AI编码代理(支持Kimi、Codex、OpenCode、Gemini等后端),用于同时尝试多种代码解决方案,以较低成本实现并行探索和任务执行。