集代碼生成與執行於一體的開源系統
prithivMLmods
Qwen3代碼推理是一個參數量為40億的緊湊型模型,在nvidia/OpenCodeReasoning上進行了微調,專門為編碼和邏輯推理任務而設計。該模型在代碼生成和邏輯問答方面表現出色,支持超過10000個標記的上下文窗口。
quantized4all
OpenCodeReasoning-Nemotron-1.1-7B是基於Qwen2.5-7B-Instruct開發的70億參數大型語言模型,專門針對代碼生成和推理任務進行後訓練優化。該模型支持64k標記的上下文長度,在競爭性編程任務中表現出色,在LiveCodeBench評估中達到55.5%的一次通過率。
Mungert
基於Qwen2.5-32B-Instruct的大語言模型,專為代碼生成推理而進行了後訓練,支持32K上下文長度,適用於商業和非商業用途。
OpenCodeReasoning-Nemotron-14B 是基於 Qwen2.5-14B-Instruct 進行後訓練的大型語言模型,專為代碼生成推理優化,支持32K tokens上下文長度。
OpenCodeReasoning-Nemotron-7B是基於Qwen2.5-7B-Instruct專門為代碼生成推理而訓練的大語言模型,支持32K token上下文長度,適用於商業和非商業用途。該模型在OpenCodeReasoning數據集上進行後續訓練,專注於編程問題的推理和代碼生成。
OpenCodeReasoning-Nemotron-32B 是基於 Qwen2.5-32B-Instruct 的代碼生成推理模型,支持32K tokens上下文長度,適用於商業和非商業用途。
bartowski
這是NVIDIA OpenCodeReasoning-Nemotron-32B-IOI模型的量化版本,使用llama.cpp進行量化處理,適用於代碼推理任務。
這是NVIDIA OpenCodeReasoning-Nemotron-14B模型的Llamacpp imatrix量化版本,適用於代碼推理任務。
nvidia
OpenCodeReasoning-Nemotron-32B-IOI 是一個基於 Qwen2.5-32B-Instruct 的大型語言模型,專門針對代碼生成任務進行了推理後訓練,支持 32K token 的上下文長度。
OpenCodeReasoning-Nemotron-32B 是一個基於 Qwen2.5-32B-Instruct 的大型語言模型,專門針對代碼生成推理能力進行訓練,支持 32K token 的上下文長度,可自由用於商業/非商業用途。
OpenCodeReasoning-Nemotron-14B 是一個專為代碼生成推理而進行後訓練的大型語言模型,支持32K令牌的上下文長度。
OpenCodeReasoning-Nemotron-7B 是基於 Qwen2.5-7B-Instruct 開發的大型語言模型,專注於代碼生成和推理任務,支持 32K tokens 的上下文長度。
LoneStriker
OpenCodeInterpreter是一套開源代碼生成系統,通過整合代碼執行與迭代優化功能提升代碼生成能力