コード生成と実行を統合したオープンソースシステム
prithivMLmods
Qwen3コード推論はパラメータ数が40億のコンパクトなモデルで、nvidia/OpenCodeReasoningで微調整され、コーディングと論理推論タスク用に特別に設計されています。このモデルはコード生成と論理質問応答で優れた性能を発揮し、10000以上のトークンの文脈ウィンドウをサポートします。
quantized4all
OpenCodeReasoning-Nemotron-1.1-7BはQwen2.5-7B-Instructをベースに開発された70億パラメータの大規模言語モデルで、コード生成と推論タスクに特化して事後トレーニングによる最適化が行われています。このモデルは64kトークンのコンテキスト長をサポートし、競技プログラミングタスクで優れた性能を発揮し、LiveCodeBench評価で55.5%のワンパス率を達成しています。
Mungert
Qwen2.5 - 32B - Instructに基づく大規模言語モデルで、コード生成推論用に事後学習され、32Kのコンテキスト長をサポートし、商用および非商用用途に適しています。
OpenCodeReasoning-Nemotron-14B は Qwen2.5-14B-Instruct を基にファインチューニングされた大規模言語モデルで、コード生成推論に最適化されており、32Kトークンのコンテキスト長をサポートします。
OpenCodeReasoning-Nemotron-7Bは、Qwen2.5 - 7B - Instructをベースに、コード生成推論用に特別にトレーニングされた大規模言語モデルです。32Kトークンのコンテキスト長をサポートし、商用および非商用用途に適しています。このモデルはOpenCodeReasoningデータセットで後続トレーニングを行い、プログラミング問題の推論とコード生成に特化しています。
OpenCodeReasoning-Nemotron-32B は Qwen2.5-32B-Instruct をベースにしたコード生成推論モデルで、32Kトークンのコンテキスト長をサポートし、商用・非商用用途に適しています。
bartowski
これはNVIDIA OpenCodeReasoning-Nemotron-32B-IOIモデルの量子化バージョンで、llama.cppを使用して量子化処理されており、コード推論タスクに適しています。
これはNVIDIA OpenCodeReasoning-Nemotron-14BモデルのLlamacpp imatrix量子化バージョンで、コード推論タスクに適しています。
nvidia
OpenCodeReasoning-Nemotron-32B-IOI は Qwen2.5-32B-Instruct をベースとした大規模言語モデルで、コード生成タスク向けに推論後訓練を施しており、32Kトークンのコンテキスト長をサポートします。
OpenCodeReasoning-Nemotron-32B は Qwen2.5-32B-Instruct をベースにした大規模言語モデルで、コード生成推論能力に特化して訓練されており、32Kトークンのコンテキスト長をサポートし、商用/非商用用途で自由に利用できます。
OpenCodeReasoning-Nemotron-14Bは、コード生成推論のために特別にファインチューニングされた大規模言語モデルで、32Kトークンのコンテキスト長をサポートしています。
OpenCodeReasoning-Nemotron-7B は Qwen2.5-7B-Instruct を基に開発された大規模言語モデルで、コード生成と推論タスクに特化しており、32Kトークンのコンテキスト長をサポートします。
LoneStriker
OpenCodeInterpreterはオープンソースのコード生成システムで、コード実行と反復最適化機能を統合することでコード生成能力を向上させます