集代码生成与执行于一体的开源系统
prithivMLmods
Qwen3代码推理是一个参数量为40亿的紧凑型模型,在nvidia/OpenCodeReasoning上进行了微调,专门为编码和逻辑推理任务而设计。该模型在代码生成和逻辑问答方面表现出色,支持超过10000个标记的上下文窗口。
quantized4all
OpenCodeReasoning-Nemotron-1.1-7B是基于Qwen2.5-7B-Instruct开发的70亿参数大型语言模型,专门针对代码生成和推理任务进行后训练优化。该模型支持64k标记的上下文长度,在竞争性编程任务中表现出色,在LiveCodeBench评估中达到55.5%的一次通过率。
Mungert
基于Qwen2.5-32B-Instruct的大语言模型,专为代码生成推理而进行了后训练,支持32K上下文长度,适用于商业和非商业用途。
OpenCodeReasoning-Nemotron-14B 是基于 Qwen2.5-14B-Instruct 进行后训练的大型语言模型,专为代码生成推理优化,支持32K tokens上下文长度。
OpenCodeReasoning-Nemotron-7B是基于Qwen2.5-7B-Instruct专门为代码生成推理而训练的大语言模型,支持32K token上下文长度,适用于商业和非商业用途。该模型在OpenCodeReasoning数据集上进行后续训练,专注于编程问题的推理和代码生成。
OpenCodeReasoning-Nemotron-32B 是基于 Qwen2.5-32B-Instruct 的代码生成推理模型,支持32K tokens上下文长度,适用于商业和非商业用途。
bartowski
这是NVIDIA OpenCodeReasoning-Nemotron-32B-IOI模型的量化版本,使用llama.cpp进行量化处理,适用于代码推理任务。
这是NVIDIA OpenCodeReasoning-Nemotron-14B模型的Llamacpp imatrix量化版本,适用于代码推理任务。
nvidia
OpenCodeReasoning-Nemotron-32B-IOI 是一个基于 Qwen2.5-32B-Instruct 的大型语言模型,专门针对代码生成任务进行了推理后训练,支持 32K token 的上下文长度。
OpenCodeReasoning-Nemotron-32B 是一个基于 Qwen2.5-32B-Instruct 的大型语言模型,专门针对代码生成推理能力进行训练,支持 32K token 的上下文长度,可自由用于商业/非商业用途。
OpenCodeReasoning-Nemotron-14B 是一个专为代码生成推理而进行后训练的大型语言模型,支持32K令牌的上下文长度。
OpenCodeReasoning-Nemotron-7B 是基于 Qwen2.5-7B-Instruct 开发的大型语言模型,专注于代码生成和推理任务,支持 32K tokens 的上下文长度。
LoneStriker
OpenCodeInterpreter是一套开源代码生成系统,通过整合代码执行与迭代优化功能提升代码生成能力